TEORIA ELEMENTAR DAS MARTINGALAS A TEMPO DISCRETO 1

Transcrição

TEORIA ELEMENTAR DAS MARTINGALAS A TEMPO DISCRETO 1
TEORIA ELEMENTAR DAS MARTINGALAS A TEMPO DISCRETO
MLE
1. Introdução
As martingalas são os primeiros exemplos não triviais de processos estocásticos que estudaremos. A designação provem dos jogadores dos casinos onde o termo se referia a um
sistema de apostas destinado a garantir ganhos. Citamos de seguida um texto (veja-se [2][p.
228]) que nos parece elucidativo deste propósito. Baron Rothschild supposedly once remarked
to Monsieur Blanc, the founder of the casino at Monte Carlo ”Take off your limit and I will
play with you as long as you like”. What Rothschild has discovered was the martingale, a
system based on the simple idea that you shoul double your bet after every loss, and return
to the opening bet after each win. A ideia subjacente é de que se num casino fosse possı́vel
apostar sem qualquer limite então haveria um sistema para garantir que o jogador vence o
casino: a martingala. Tais casinos não existem pelo que os sistemas que garantem ganhos
certos necessitando apostas não limitadas são uma ilusão. Para além desta propriedade de
não limitação das apostas há ainda outro factor a considerar. É que o jogador no casino joga
um jogo injusto para si próprio. Esta caracterı́stica pode ser bem explicitada referindo-nos
ao mais antigo jogo de casino: a roleta, introduzido em Paris em meados do século XVIII.
A descrição das apostas possı́veis na roleta americana, por exemplo (veja-se, mais uma vez,
[2][p. 220]), mostra que o casino tem uma margem de 5,26 cêntimos em cada Euro apostado,
isto é, o valor esperado de ganho em cada uma dos tipos de apostas permitidas é de -5,26
cêntimos em cada Euro apostado. A situação é semelhante na roleta europeia. As duas
limitações referidas constituem por si só razão suficiente para justificar a existência de jogo,
por parte dos casinos, claro!
A teoria que desenvolveremos a seguir elucida as afirmações que acabámos de fazer. É
uma teoria iniciada por Paul Lévy, desenvolvida por Doob e que hoje é parte integrante da
moderna teoria dos processos estocásticos.
2. Martingalas em tempo discreto
O exemplo mais simples de processo estocástico é o de uma sucessão de variáveis aleatórias
independentes cujo modelo canónico, tal como já vimos, é o de uma lei de probabilidade
sobre um produto numerável de espaços de probabilidade. A hipótese de independência
que simplifica o modelo sob o ponto de vista compuatcional, é muitas vezes irrealista nas
aplicações. Uma alternativa à independência é-nos dada pela propriedade de Markov que,
grosso modo, nos diz que dado o presente, o passado e o futuro são independentes. Uma particularização da propriedade de Markov é a propriedade de definição das martingalas: dado
o passado, o presente é a melhor aproximação do futuro, no sentido dos mı́nimos quadrados.
Esta propriedade é um compromisso entre a facilidade computacional e a dependência das
variáveis aleatórias na sucessão. No entanto, torna possı́vel uma teoria com propriedades
calculatórias e assimptóticas muito interessantes, como iremos ver.
Date: 14 de Abril de 2005.
1
2
MLE
Para inı́cio de estudo destas noções sublinhemos que o estudo dos processos estocásticos
pode ser encarado como o estudo da evolução dos fenómenos aleatórios. Com efeito, o estudo
das probabilidades elementares é, em regra, um estudo a tempo fixo. Quando se pretende
um estudo da variação ao longo do tempo de um fenómeno aleatórioé natural considerar uma
famı́lia X = (Xi )i∈T de variáveis aleatórias em que T é um conjunto totalmente ordenado,
dado que é essa a princiapl caracterı́stica que normalmente atribuı́mos ao tempo. Regra
geral temos T ⊂ R. Para o estudo que vai fazer-se seguidamente vamos supor que T = N e
daı́ o qualificativo a tempo discreto no tı́tulo.
Seja um processo estocástico X = (Xn )n∈N . Para conhecer X não basta em geral conhecer as distribuições de cada uma das variáveis Xn , para n ∈ N; a informação contida
na distribuição dos pares (Xm , Xn ) para m, n ∈ N, na distribuição dos trios (Xm , Xn , Xl )
para m, n, l ∈ N e, mais geralmente, na distribuição dos p-uplos (Xn1 , Xn2 , . . . , Xnp ) para
n1 , n2 , . . . , np ∈ N e p ≥ 1 é indispensável para se poder distinguir um processo estocástico
doutro. Note-se que se X = (Xn )n∈N for uma sucessão de variáveis aleatórias independentes
então o conhecimento da distribuição de cada uma das variáveis Xn garante-nos o conhecimento da distribuição de qualquer p-uplo pois, tal como já vimos, no caso das variáveis
Xn1 , Xn2 , . . . , Xnp serem independentes:
FXn1 ,Xn2 ,...,Xnp (x1 , x2 , . . . , xp ) = FXn1 (x1 ) · FXn2 (x2 ) · · · FXnp (xp ) .
Um resultado notável de Kolmogorov [5][p. ], cujo estudo está para além do aconselhável a
este nı́vel introdutório, garante que se nos for dada uma famı́lia de funções de distribuições
de probabilidade Fn1 ,n1 ,...,np para n1 , n2 , . . . , np ∈ N e p ≥ 1, então existe um espaço de
probabilidade e um processo estocástico X = (Xn )n∈N sobre este espaço de probabilidade
tal que para qualquer p ≥ 1 e para quaisquer n1 , n2 , . . . , np ∈ N se tem:
FXn1 ,Xn2 ,...,Xnp = Fn1 ,n1 ,...,np .
Isto é, um tal resultado garante-nos sempre a existência de um processo estocástico com as
distribuições conjuntas de ordem finita prescritas. Afastado o problema geral da existência
dos processos estocásticos a tempo discreto podemos avançar no estudo de alguns casos
particulares nos quais, por vezes, a construção do processo é feita directamente. Tal acontece
nos exemplos de martingalas estudados seguidamente.
2.1. As definições. Seja (Ω, F, P) um espaço de probabilidades. Neste espaço, a álgebra-σ
F representa o conjunto de todos os acontecimentos possı́veis. Para representar um fluxo
crescente de informação disponı́vel e assim introduzir uma caracterı́stica dinâmica no modelo
é natural considerar-se a noção de filtração. Seja
F = (Fn )n∈N
uma filtracão, isto é, uma sucessão Fn de subálgebras-σ de F, crescente, isto é, tal que
∀n ∈ N Fn ⊆ Fn+1 .
A álgebra-σ Fn representará a informação disponı́vel à data n. Essa informação pode ser a
que é gerada pelo próprio processo estocástico em estudo. Seja ainda por definição:
F∞ := σ(
Fn ) ⊆ F ,
n∈N
Observação 1 (Ideia importante). A informacão sobre uma realizacão ω ∈ Ω, imediatamente a seguir ao tempo n, são os valores Zn (ω) para todas as funcões Z que sejam Fn
mensuráveis.
TEORIA ELEMENTAR DAS MARTINGALAS A TEMPO DISCRETO
3
Exemplo 1 (Filtração canónica ou natural do processo). : Seja (Xn )n∈N um processo estocástico e seja a filtração G = (G)n∈N dfinida por:
Gn = σ(X0 , X1 , . . . , Xn ) .
Logo, a informacão disponı́vel sobre ω ∈ Ω são os valores:
X0 (ω), X1 (ω), . . . , Xn (ω) .
Definição 1. (Xn )n∈N é adaptado a F se para cada n, Xn é Fn mensurável.
Observação 2 (Ideia). Se X é adaptado o valor de Xn (ω) é-nos conhecido ao tempo n.
Exemplo 2. Seja Fn = σ(X0 , . . . , Xn ) e, para cada n ∈ N, Wn = fn (Xo , . . . , Xn ) onde fn é
uma funcão B(R) mensurável fn : R → R.
Definição 2. O processo (Xn )n∈N é uma
1. Martingala: relativamente à filtração F se se verificarem as seguintes propriedades:
(a) (Xn ) é adaptado relativamente à filtração F;
(b) E[|Xn |] < +∞ isto é Xn ∈ L1 ;
(c) Para n ≥ 1 tem-se que :E[Xn | Fn−1 ] = Xn−1 quase certamente.
2. Supermartingala: (Tem tendência a decrescer ou decresce em média) sse a terceira
propriedade acima for substituı́da por:
E[Xn | Fn−1 ] ≤ Xn−1 q.c.
3. Submartingala (Tem tendência a crescer ou cresce em média) sse a terceira propriedade de definição de martingala acima for substituı́da por:
E[Xn |Fn−1 ] ≥ Xn−1 q.c.
Observação 3. Podem observar-se as seguintes propriedades imediatas:
• X supermartingala sse −X é submartingala;
• X submartingala sse −X é supermartingala;
• Se X0 ∈ L1 então (Xn )n∈N é martingala sse (Xn − X0 )n∈N for martingala.
• Para n > m tem-se que:
E[Xn |Fm ] = E[E[Xn |Fn−1 ]|Fm ] = E[Xn−1 |Fm ] = Xm q.c. .
Esta fórmula diz-nos, genericamente, que a melhor aproximação do futuro dado o passado
e o presente é o presente.
2.2. Exemplos de Martingalas.
2.2.1. Passeio aleatório. Somas de v.a. independentes centradas integráveis Seja
(Xn )n∈N uma sucessão de variáveis aleatórias independentes integráveis e centradas, isto é:
E[| Xn |] < +∞ , E[Xn ] = 0.
Então se definirmos
S0 := 0 , F0 = {∅, Ω} , Sn := X1 + · · · + Xn , Fn = σ(X1 , · · · , Xn ) ,
temos que para n ≥ 1 quase certamente:
E[Sn |Fn−1 ] = E[Sn−1 + Xn |Fn−1 ] = E[Sn−1 |Fn−1 + E[Xn |Fn−1 ]
= Sn−1 + E[Xn ] = Sn−1
Observação 4. Relativamente a este exemplo fundamental podemos observar que:
4
MLE
• dado que Xn ∈ mFn tem-se que:
Sn ∈ mFn ;
• uma condição para que limite de Sn exista quase certamente é dada pelo teorema das
três séries de Kolmogoroff.
2.2.2. Maringalas multiplicativas. Produtos de v.a.independentes positivas de valor
médio unitário
(Xn )n∈N sucessão de v.a., Xn ≥ 0 , E[Xh ] = 1 ,
M0 := 1 , F0 = {∅, Ω} , Mn = X1 · X2 · · · Xn , Fn = σ(X1 , . . . , Xn )
Para n ≥ 1 tem-se que:
E[Mn | Fn−1 ] = E[Mn−1 Xn | Fn−1 ] = Mn−1 E[Xn | Fn−1 ] = Mn−1 E[Xn ] = Mn−1
Note-se que a integralidadde é trivial devido à independência.
Observação 5. Estas martingalas são utilizadas, por exemplo, na teoria do caos multiplicativo de J.-P. Kahane e B. Mandelbrot.
• Para estas martingalas é particularmente útil um teorema de convergência que garanta
a existência quase certa do seguinte linite: M∞ = limn→+∞ Mn . Trata-se do teorema
de convergência das martingalas. Uma questão natural é a de saber em que condições
é que E[M∞ ] = 1 ? A resposta é-nos dada pelo teorema de Kakutani e diz-nos que tal
acontece quando a martingala é uniformemente integrável.
2.2.3. Martingalas de Paul Lévy. Acumulação de dados sobre uma variável aleatória.
Seja F = (Fn )n∈N dada e ξ ∈ L definindo Mn := E[ξ | Fn ], temos que a sucessão (Mn )n∈N
é integrável e adaptada por construção. Verifica-se ainda que:
E[Mn | Fn−1 ] = E[E[ξ | Fn ] | Fn−1 ] = E[ξ | Fn−1 ] = Mn−1 ,
pelo que a sucessão (Mn )n∈N é uma martingala.
Observação 6. Relativamente a estas martingalas podemos observar que:
• Mn é a melhor aproximação de ξ dada a informação disponı́vel em Fn .
• M∞ = lim Mn = E[ξ | Fn ] é a melhor aproximação possı́vel de ξ com a informação
disponı́vel em F .
• Uma questão natural é a de saber em que condições é que: ξ = E[ξ | Fn ] ? A resposta
é dada por uma condição de estrutura.
2.3. Jogos justos e injustos. Consideremos que a diferença Xn − Xn−1 representa os
ganhos por unidade apostada à jogada n ≥ 1 e que não há jogada 0. No caso de uma
martingala verifica-se que:
E[Xn | Fn−1 ] = Xn−1 = E[Xn−1 | Fn−1 ] ⇔ E[Xn − Xn−1 | Fn−1 ] = 0
Pelo que podemos concluir que o jogo é justo. Observe-se que no caso de a sucessão
(Xn )n∈N se uma supermartingala tem-se que :
E[Xn | Fn−1 ] ≤ Xn−1 ou E[Xn − Xn−1 | Fn−1 ] ≤ 0 ,
pelo que o jogo nos é desfavorável e por isso podemos considera-lo como um jogo injusto.
TEORIA ELEMENTAR DAS MARTINGALAS A TEMPO DISCRETO
5
2.3.1. Processos previsı́veis. Os processos previsı́veis permitem-nos apresentar um modelo
matemático coerente para a noção intuitiva de estratégia de jogo.
Definição 3. Um processo estocástico D = (Dn )n∈N é previsı́vel sse Dn é Fn−1 mensurável.
Observação 7. Adoptando a interpretação de que a filtração representa a informação disponı́vel
podemos observar que:
• A variável aleatória Dn representa a aposta à jogada n;
• O valor que Dn tomará tem que ficar determinado até à data n − 1, inclusivé;
• As hipóteses feitas sublinham o carácter previsı́vel de D.
• Os ganhos na jogada n são representados por:
Dn (Xn − Xn−1 ) ;
• A soma dos ganhos e perdas até ao instante n é dada por:
Yn =
n
Dk (Xk − Xk−1 ) := (D • X)n .
k=1
• Considera-se por convenção que
(D • X)0 = 0
e então tem-se que Yn − Yn−1 = Dn (Xn − Xn−1 ) .
Definição 4. Ao processo D • X = ((D • X)n )n∈N chamamos a transformada martingala
de X por D.
Observação 8. O processo D • X é o análogo discreto do integral estocástico.
Sob reserva de algumas hipóteses simples sobre os procesos intervenientes pode afirmar-se
que é válida a tese que a transformada de martingala de uma martingala por um processo
previsı́vel é uma martingala.
Teorema 1. Seja D = (Dn )n∈N um processo F = (Fn )n∈N previsı́vel.
1. Se D for limitado e não negativo e X = (Xn )n∈N for uma supermartingala então D • X
é uma supermartingala nula em zero.
2. Se D for limitado e X for uma martingala então D • X é uma martingala nula em zero.
3. Se D e X forem processos em L2 isto é, se
∀n ∈ N Dn , Xn ∈ L2 ,
então D • X é uma martingala nula em zero.
Demonstração. Para a demonstração de 1 basta observar que:
E [(D • X)n+1 − (D • X)n | Fn ] = E [Dn+1 (Xn+1 − Xn ) | Fn ]
= Dn+1 E [Xn+1 − Xn | Fn ] ≤ 0 .
Para a demonstração de 3 basta aplicar a desigualdade de Hölder.
Observação 9. Este resultado mostra que qualquer que seja a estratégia previsı́vel os ganhos
em função desta estratégia não alteram a natureza do jogo. Com efeito se o jogo for injusto
os ganhos terão tendência a decrescer (caso de uma submartingala) e se o jogo for justo os
ganhos terão tendência a ser constantes (é o caso de uma martingala).
6
MLE
3. Tempo de paragem e teorema opcional de Doob
A noção que introduziremos a seguir é da maior importância na análise de fenómenos
aleatórios não triviais. Seja (Ω, F, P) um espaço de probabilidade e F = (Fn )n∈N uma
filtração sobre esse espaço.
Notação 1. Para descrever um acontecimento que não se realiza em tempo finito é importante que o conjunto que descreve o tempo amita essa possibilidade. Para o efeito define-se:
N := {0, 1, . . . , +∞} = N ∪ {+∞} .
Definição 5. Uma aplicação T : Ω → N é um tempo de paragem se e só se se verificar
uma qualquer das condições seguintes:
1. ∀n ∈ N {T ≤ n} = {ω : T (ω) ≤ n} ∈ Fn
2. ∀n ∈ N {T = n} ∈ Fn .
Observação 10. As propriedades da definição anterior são equivalentes. Com efeito
• Se se verificar a primeira propriedade, como Fn−1 ⊂ Fn tem-se que
{T = n} = {T ≤ n} − {T ≤ n − 1} ∈ Fn
logo, verifica-se a segunda propriedade.
• Se se verificar a segunda propriedade, como
{T ≤ n} =
n
{T = i} ∈ Fn ,
i=0
verifica-se aprimeira propriedade.
Observação 11. (Ideia): No modelo de Kolmogorov T representa um instante em que o
jogador decide parar de jogar, face à informação disponı́vel que é, por sua vez, representada
pela filtração. A decisão de parar, ou não, a seguir à n-ésima jogada só pode depender dos
acontecimentos até à data n isto é:
{T = n} ∈ Fn .
Exemplo 3. Seja A = (An )n∈N um processo adaptado e B ∈ B(R). Seja, por definição, o
instante da primeira entrada do processo A no conjunto B representado por:
T = inf{n ∈ N : An ∈ B} .
Tem-se então que:
• T = +∞ ⇔ {n ∈ N
: An ∈ B} = ∅, isto é, T = +∞ se e só se T nunca entrar em B.
• Como {T ≤ n} = ni=0 {Ai ∈ B} tem-se que,
∀n ∈ N{T ≤ n} ∈ Fn ,
pelo que T é um tempo de paragem.
Exercı́cio 1 (Contra exemplo). Mostre que L definido por:
L = sup{n : n ≤ 10, An ∈ B}
não é um tempo de paragem.
TEORIA ELEMENTAR DAS MARTINGALAS A TEMPO DISCRETO
7
3.1. Supermartingalas paradas são supermartingalas. Seja X = (Xn )n∈N uma supermartingala e T um tempo de paragem
Considere-se a seguinte estratégia: apostar em cada jogada sempre uma unidade e parar
de jogar (imediatemente a seguir ao) instante T . O processo de apostas DT = (DnT )n∈N
pode ser representado por:
1 se n ≤ T (ω)
DnT (ω) =
0 se n > T (ω) ,
isto é,
DnT (ω) = I{n≤T } (ω) .
O processo de ganhos com este processo de apostas pode ser representado pelo processo
DT • X = ((DT • X)n )n∈N definido por:
T
(Xn−1 − Xn−2 ) + · · · + D1T (X1 − X0 ) =
(DT • X)n = DnT (Xn − Xn−1 ) + Dn−1
= Xn − Xn−1 + Xn−1 − Xn−2 + · · · + X1 − X0 = Xn − X0 ( se n ≤ T (ω))
= XT (ω) − XT (ω)−1 + · · · + X1 − X0 = XT (ω) − Xo ( se n > T (ω))
= XT (ω)∧n − Xo ( em qualquer caso).
Definição 6. Dados X = (Xn )n∈N um processo estocástico e T tempo de paragem o processo parado em T denotado por XT = (XnT )n∈N é por definição:
∀n ∈ N ∀ω ∈ Ω XnT (ω) = XT (ω)∧n (ω) .
Observação 12. Note-se que com esta definição se tem que:
DT • X = X T − X 0
e que DT é limitado e não negativo, isto é mais precisamente, 0 ≤ DT ≤ 1, uma vez que por
definição
1 T (ω) ≥ n
DnT (ω) =
0 T (ω) < n .
Pode ainda observar-se que DT é previsı́vel uma vez que tomando apenas os valores zero e
um se tem:
{DnT = 0} = {T ≤ n − 1} ∈ Fn−1
e
{DnT = 1} = {T (ω) ≥ n} = {T (ω) > n − 1} = {T (ω) ≤ n − 1}c .
Por aplicação do resultado 1 pode concluir-se que
Teorema 2. Se X for uma supermartingala, e T um tempo de paragem então o processo
parado XT é uma supermartingala o que implica em particular que:
∀n ∈ N E[XT ∧n ] ≤ E[X0 ] .
Se X for uma martingala, e T um tempo de paragem então o processo parado XT é uma
martingala o que implica em .
∀n ∈ N E[XT ∧n ] = E[X0 ] .
8
MLE
Referências
[1]
[2]
[3]
[4]
[5]
[6]
M. Benaı̈m, N. El Karoui; Promenade Aléatoire. Les Éditions de l’École Polytechnique, 2004.
B. Burrell; Guide to Everyday Math. Merriam-Webster, Incorporated, Springfield Massachusetts, 1998.
D. Dacunha-Castelle, M. Duflo; Probabilités et Statistiques. Volume II, Masson 1983.
J. Hoffmann-Jorgensen; Probability with a view toward Statistics, Chapman & Hall, 1994.
A. N. Kolmogorov, Foundations of the Theory of Probability, Chelsea Pub. Co. second edition 1960.
D. Lamberton, & B. Lapeyre; Introduction to Stochastic Calculus Applied to Finance, Chapman & Hall
1996.
[Neveu72] J. Neveu; Martingales a temps discret, Masson, Paris 1972.
[7] D. Williams; Probability with Martingales, Cambridge University Press, 1991.
[8] Z. Brzeźniak, T. Zastawniak; Basic Stochastic Processes. Springer Verlag, 1999.