TEORIA ELEMENTAR DAS MARTINGALAS A TEMPO DISCRETO 1
Transcrição
TEORIA ELEMENTAR DAS MARTINGALAS A TEMPO DISCRETO 1
TEORIA ELEMENTAR DAS MARTINGALAS A TEMPO DISCRETO MLE 1. Introdução As martingalas são os primeiros exemplos não triviais de processos estocásticos que estudaremos. A designação provem dos jogadores dos casinos onde o termo se referia a um sistema de apostas destinado a garantir ganhos. Citamos de seguida um texto (veja-se [2][p. 228]) que nos parece elucidativo deste propósito. Baron Rothschild supposedly once remarked to Monsieur Blanc, the founder of the casino at Monte Carlo ”Take off your limit and I will play with you as long as you like”. What Rothschild has discovered was the martingale, a system based on the simple idea that you shoul double your bet after every loss, and return to the opening bet after each win. A ideia subjacente é de que se num casino fosse possı́vel apostar sem qualquer limite então haveria um sistema para garantir que o jogador vence o casino: a martingala. Tais casinos não existem pelo que os sistemas que garantem ganhos certos necessitando apostas não limitadas são uma ilusão. Para além desta propriedade de não limitação das apostas há ainda outro factor a considerar. É que o jogador no casino joga um jogo injusto para si próprio. Esta caracterı́stica pode ser bem explicitada referindo-nos ao mais antigo jogo de casino: a roleta, introduzido em Paris em meados do século XVIII. A descrição das apostas possı́veis na roleta americana, por exemplo (veja-se, mais uma vez, [2][p. 220]), mostra que o casino tem uma margem de 5,26 cêntimos em cada Euro apostado, isto é, o valor esperado de ganho em cada uma dos tipos de apostas permitidas é de -5,26 cêntimos em cada Euro apostado. A situação é semelhante na roleta europeia. As duas limitações referidas constituem por si só razão suficiente para justificar a existência de jogo, por parte dos casinos, claro! A teoria que desenvolveremos a seguir elucida as afirmações que acabámos de fazer. É uma teoria iniciada por Paul Lévy, desenvolvida por Doob e que hoje é parte integrante da moderna teoria dos processos estocásticos. 2. Martingalas em tempo discreto O exemplo mais simples de processo estocástico é o de uma sucessão de variáveis aleatórias independentes cujo modelo canónico, tal como já vimos, é o de uma lei de probabilidade sobre um produto numerável de espaços de probabilidade. A hipótese de independência que simplifica o modelo sob o ponto de vista compuatcional, é muitas vezes irrealista nas aplicações. Uma alternativa à independência é-nos dada pela propriedade de Markov que, grosso modo, nos diz que dado o presente, o passado e o futuro são independentes. Uma particularização da propriedade de Markov é a propriedade de definição das martingalas: dado o passado, o presente é a melhor aproximação do futuro, no sentido dos mı́nimos quadrados. Esta propriedade é um compromisso entre a facilidade computacional e a dependência das variáveis aleatórias na sucessão. No entanto, torna possı́vel uma teoria com propriedades calculatórias e assimptóticas muito interessantes, como iremos ver. Date: 14 de Abril de 2005. 1 2 MLE Para inı́cio de estudo destas noções sublinhemos que o estudo dos processos estocásticos pode ser encarado como o estudo da evolução dos fenómenos aleatórios. Com efeito, o estudo das probabilidades elementares é, em regra, um estudo a tempo fixo. Quando se pretende um estudo da variação ao longo do tempo de um fenómeno aleatórioé natural considerar uma famı́lia X = (Xi )i∈T de variáveis aleatórias em que T é um conjunto totalmente ordenado, dado que é essa a princiapl caracterı́stica que normalmente atribuı́mos ao tempo. Regra geral temos T ⊂ R. Para o estudo que vai fazer-se seguidamente vamos supor que T = N e daı́ o qualificativo a tempo discreto no tı́tulo. Seja um processo estocástico X = (Xn )n∈N . Para conhecer X não basta em geral conhecer as distribuições de cada uma das variáveis Xn , para n ∈ N; a informação contida na distribuição dos pares (Xm , Xn ) para m, n ∈ N, na distribuição dos trios (Xm , Xn , Xl ) para m, n, l ∈ N e, mais geralmente, na distribuição dos p-uplos (Xn1 , Xn2 , . . . , Xnp ) para n1 , n2 , . . . , np ∈ N e p ≥ 1 é indispensável para se poder distinguir um processo estocástico doutro. Note-se que se X = (Xn )n∈N for uma sucessão de variáveis aleatórias independentes então o conhecimento da distribuição de cada uma das variáveis Xn garante-nos o conhecimento da distribuição de qualquer p-uplo pois, tal como já vimos, no caso das variáveis Xn1 , Xn2 , . . . , Xnp serem independentes: FXn1 ,Xn2 ,...,Xnp (x1 , x2 , . . . , xp ) = FXn1 (x1 ) · FXn2 (x2 ) · · · FXnp (xp ) . Um resultado notável de Kolmogorov [5][p. ], cujo estudo está para além do aconselhável a este nı́vel introdutório, garante que se nos for dada uma famı́lia de funções de distribuições de probabilidade Fn1 ,n1 ,...,np para n1 , n2 , . . . , np ∈ N e p ≥ 1, então existe um espaço de probabilidade e um processo estocástico X = (Xn )n∈N sobre este espaço de probabilidade tal que para qualquer p ≥ 1 e para quaisquer n1 , n2 , . . . , np ∈ N se tem: FXn1 ,Xn2 ,...,Xnp = Fn1 ,n1 ,...,np . Isto é, um tal resultado garante-nos sempre a existência de um processo estocástico com as distribuições conjuntas de ordem finita prescritas. Afastado o problema geral da existência dos processos estocásticos a tempo discreto podemos avançar no estudo de alguns casos particulares nos quais, por vezes, a construção do processo é feita directamente. Tal acontece nos exemplos de martingalas estudados seguidamente. 2.1. As definições. Seja (Ω, F, P) um espaço de probabilidades. Neste espaço, a álgebra-σ F representa o conjunto de todos os acontecimentos possı́veis. Para representar um fluxo crescente de informação disponı́vel e assim introduzir uma caracterı́stica dinâmica no modelo é natural considerar-se a noção de filtração. Seja F = (Fn )n∈N uma filtracão, isto é, uma sucessão Fn de subálgebras-σ de F, crescente, isto é, tal que ∀n ∈ N Fn ⊆ Fn+1 . A álgebra-σ Fn representará a informação disponı́vel à data n. Essa informação pode ser a que é gerada pelo próprio processo estocástico em estudo. Seja ainda por definição: F∞ := σ( Fn ) ⊆ F , n∈N Observação 1 (Ideia importante). A informacão sobre uma realizacão ω ∈ Ω, imediatamente a seguir ao tempo n, são os valores Zn (ω) para todas as funcões Z que sejam Fn mensuráveis. TEORIA ELEMENTAR DAS MARTINGALAS A TEMPO DISCRETO 3 Exemplo 1 (Filtração canónica ou natural do processo). : Seja (Xn )n∈N um processo estocástico e seja a filtração G = (G)n∈N dfinida por: Gn = σ(X0 , X1 , . . . , Xn ) . Logo, a informacão disponı́vel sobre ω ∈ Ω são os valores: X0 (ω), X1 (ω), . . . , Xn (ω) . Definição 1. (Xn )n∈N é adaptado a F se para cada n, Xn é Fn mensurável. Observação 2 (Ideia). Se X é adaptado o valor de Xn (ω) é-nos conhecido ao tempo n. Exemplo 2. Seja Fn = σ(X0 , . . . , Xn ) e, para cada n ∈ N, Wn = fn (Xo , . . . , Xn ) onde fn é uma funcão B(R) mensurável fn : R → R. Definição 2. O processo (Xn )n∈N é uma 1. Martingala: relativamente à filtração F se se verificarem as seguintes propriedades: (a) (Xn ) é adaptado relativamente à filtração F; (b) E[|Xn |] < +∞ isto é Xn ∈ L1 ; (c) Para n ≥ 1 tem-se que :E[Xn | Fn−1 ] = Xn−1 quase certamente. 2. Supermartingala: (Tem tendência a decrescer ou decresce em média) sse a terceira propriedade acima for substituı́da por: E[Xn | Fn−1 ] ≤ Xn−1 q.c. 3. Submartingala (Tem tendência a crescer ou cresce em média) sse a terceira propriedade de definição de martingala acima for substituı́da por: E[Xn |Fn−1 ] ≥ Xn−1 q.c. Observação 3. Podem observar-se as seguintes propriedades imediatas: • X supermartingala sse −X é submartingala; • X submartingala sse −X é supermartingala; • Se X0 ∈ L1 então (Xn )n∈N é martingala sse (Xn − X0 )n∈N for martingala. • Para n > m tem-se que: E[Xn |Fm ] = E[E[Xn |Fn−1 ]|Fm ] = E[Xn−1 |Fm ] = Xm q.c. . Esta fórmula diz-nos, genericamente, que a melhor aproximação do futuro dado o passado e o presente é o presente. 2.2. Exemplos de Martingalas. 2.2.1. Passeio aleatório. Somas de v.a. independentes centradas integráveis Seja (Xn )n∈N uma sucessão de variáveis aleatórias independentes integráveis e centradas, isto é: E[| Xn |] < +∞ , E[Xn ] = 0. Então se definirmos S0 := 0 , F0 = {∅, Ω} , Sn := X1 + · · · + Xn , Fn = σ(X1 , · · · , Xn ) , temos que para n ≥ 1 quase certamente: E[Sn |Fn−1 ] = E[Sn−1 + Xn |Fn−1 ] = E[Sn−1 |Fn−1 + E[Xn |Fn−1 ] = Sn−1 + E[Xn ] = Sn−1 Observação 4. Relativamente a este exemplo fundamental podemos observar que: 4 MLE • dado que Xn ∈ mFn tem-se que: Sn ∈ mFn ; • uma condição para que limite de Sn exista quase certamente é dada pelo teorema das três séries de Kolmogoroff. 2.2.2. Maringalas multiplicativas. Produtos de v.a.independentes positivas de valor médio unitário (Xn )n∈N sucessão de v.a., Xn ≥ 0 , E[Xh ] = 1 , M0 := 1 , F0 = {∅, Ω} , Mn = X1 · X2 · · · Xn , Fn = σ(X1 , . . . , Xn ) Para n ≥ 1 tem-se que: E[Mn | Fn−1 ] = E[Mn−1 Xn | Fn−1 ] = Mn−1 E[Xn | Fn−1 ] = Mn−1 E[Xn ] = Mn−1 Note-se que a integralidadde é trivial devido à independência. Observação 5. Estas martingalas são utilizadas, por exemplo, na teoria do caos multiplicativo de J.-P. Kahane e B. Mandelbrot. • Para estas martingalas é particularmente útil um teorema de convergência que garanta a existência quase certa do seguinte linite: M∞ = limn→+∞ Mn . Trata-se do teorema de convergência das martingalas. Uma questão natural é a de saber em que condições é que E[M∞ ] = 1 ? A resposta é-nos dada pelo teorema de Kakutani e diz-nos que tal acontece quando a martingala é uniformemente integrável. 2.2.3. Martingalas de Paul Lévy. Acumulação de dados sobre uma variável aleatória. Seja F = (Fn )n∈N dada e ξ ∈ L definindo Mn := E[ξ | Fn ], temos que a sucessão (Mn )n∈N é integrável e adaptada por construção. Verifica-se ainda que: E[Mn | Fn−1 ] = E[E[ξ | Fn ] | Fn−1 ] = E[ξ | Fn−1 ] = Mn−1 , pelo que a sucessão (Mn )n∈N é uma martingala. Observação 6. Relativamente a estas martingalas podemos observar que: • Mn é a melhor aproximação de ξ dada a informação disponı́vel em Fn . • M∞ = lim Mn = E[ξ | Fn ] é a melhor aproximação possı́vel de ξ com a informação disponı́vel em F . • Uma questão natural é a de saber em que condições é que: ξ = E[ξ | Fn ] ? A resposta é dada por uma condição de estrutura. 2.3. Jogos justos e injustos. Consideremos que a diferença Xn − Xn−1 representa os ganhos por unidade apostada à jogada n ≥ 1 e que não há jogada 0. No caso de uma martingala verifica-se que: E[Xn | Fn−1 ] = Xn−1 = E[Xn−1 | Fn−1 ] ⇔ E[Xn − Xn−1 | Fn−1 ] = 0 Pelo que podemos concluir que o jogo é justo. Observe-se que no caso de a sucessão (Xn )n∈N se uma supermartingala tem-se que : E[Xn | Fn−1 ] ≤ Xn−1 ou E[Xn − Xn−1 | Fn−1 ] ≤ 0 , pelo que o jogo nos é desfavorável e por isso podemos considera-lo como um jogo injusto. TEORIA ELEMENTAR DAS MARTINGALAS A TEMPO DISCRETO 5 2.3.1. Processos previsı́veis. Os processos previsı́veis permitem-nos apresentar um modelo matemático coerente para a noção intuitiva de estratégia de jogo. Definição 3. Um processo estocástico D = (Dn )n∈N é previsı́vel sse Dn é Fn−1 mensurável. Observação 7. Adoptando a interpretação de que a filtração representa a informação disponı́vel podemos observar que: • A variável aleatória Dn representa a aposta à jogada n; • O valor que Dn tomará tem que ficar determinado até à data n − 1, inclusivé; • As hipóteses feitas sublinham o carácter previsı́vel de D. • Os ganhos na jogada n são representados por: Dn (Xn − Xn−1 ) ; • A soma dos ganhos e perdas até ao instante n é dada por: Yn = n Dk (Xk − Xk−1 ) := (D • X)n . k=1 • Considera-se por convenção que (D • X)0 = 0 e então tem-se que Yn − Yn−1 = Dn (Xn − Xn−1 ) . Definição 4. Ao processo D • X = ((D • X)n )n∈N chamamos a transformada martingala de X por D. Observação 8. O processo D • X é o análogo discreto do integral estocástico. Sob reserva de algumas hipóteses simples sobre os procesos intervenientes pode afirmar-se que é válida a tese que a transformada de martingala de uma martingala por um processo previsı́vel é uma martingala. Teorema 1. Seja D = (Dn )n∈N um processo F = (Fn )n∈N previsı́vel. 1. Se D for limitado e não negativo e X = (Xn )n∈N for uma supermartingala então D • X é uma supermartingala nula em zero. 2. Se D for limitado e X for uma martingala então D • X é uma martingala nula em zero. 3. Se D e X forem processos em L2 isto é, se ∀n ∈ N Dn , Xn ∈ L2 , então D • X é uma martingala nula em zero. Demonstração. Para a demonstração de 1 basta observar que: E [(D • X)n+1 − (D • X)n | Fn ] = E [Dn+1 (Xn+1 − Xn ) | Fn ] = Dn+1 E [Xn+1 − Xn | Fn ] ≤ 0 . Para a demonstração de 3 basta aplicar a desigualdade de Hölder. Observação 9. Este resultado mostra que qualquer que seja a estratégia previsı́vel os ganhos em função desta estratégia não alteram a natureza do jogo. Com efeito se o jogo for injusto os ganhos terão tendência a decrescer (caso de uma submartingala) e se o jogo for justo os ganhos terão tendência a ser constantes (é o caso de uma martingala). 6 MLE 3. Tempo de paragem e teorema opcional de Doob A noção que introduziremos a seguir é da maior importância na análise de fenómenos aleatórios não triviais. Seja (Ω, F, P) um espaço de probabilidade e F = (Fn )n∈N uma filtração sobre esse espaço. Notação 1. Para descrever um acontecimento que não se realiza em tempo finito é importante que o conjunto que descreve o tempo amita essa possibilidade. Para o efeito define-se: N := {0, 1, . . . , +∞} = N ∪ {+∞} . Definição 5. Uma aplicação T : Ω → N é um tempo de paragem se e só se se verificar uma qualquer das condições seguintes: 1. ∀n ∈ N {T ≤ n} = {ω : T (ω) ≤ n} ∈ Fn 2. ∀n ∈ N {T = n} ∈ Fn . Observação 10. As propriedades da definição anterior são equivalentes. Com efeito • Se se verificar a primeira propriedade, como Fn−1 ⊂ Fn tem-se que {T = n} = {T ≤ n} − {T ≤ n − 1} ∈ Fn logo, verifica-se a segunda propriedade. • Se se verificar a segunda propriedade, como {T ≤ n} = n {T = i} ∈ Fn , i=0 verifica-se aprimeira propriedade. Observação 11. (Ideia): No modelo de Kolmogorov T representa um instante em que o jogador decide parar de jogar, face à informação disponı́vel que é, por sua vez, representada pela filtração. A decisão de parar, ou não, a seguir à n-ésima jogada só pode depender dos acontecimentos até à data n isto é: {T = n} ∈ Fn . Exemplo 3. Seja A = (An )n∈N um processo adaptado e B ∈ B(R). Seja, por definição, o instante da primeira entrada do processo A no conjunto B representado por: T = inf{n ∈ N : An ∈ B} . Tem-se então que: • T = +∞ ⇔ {n ∈ N : An ∈ B} = ∅, isto é, T = +∞ se e só se T nunca entrar em B. • Como {T ≤ n} = ni=0 {Ai ∈ B} tem-se que, ∀n ∈ N{T ≤ n} ∈ Fn , pelo que T é um tempo de paragem. Exercı́cio 1 (Contra exemplo). Mostre que L definido por: L = sup{n : n ≤ 10, An ∈ B} não é um tempo de paragem. TEORIA ELEMENTAR DAS MARTINGALAS A TEMPO DISCRETO 7 3.1. Supermartingalas paradas são supermartingalas. Seja X = (Xn )n∈N uma supermartingala e T um tempo de paragem Considere-se a seguinte estratégia: apostar em cada jogada sempre uma unidade e parar de jogar (imediatemente a seguir ao) instante T . O processo de apostas DT = (DnT )n∈N pode ser representado por: 1 se n ≤ T (ω) DnT (ω) = 0 se n > T (ω) , isto é, DnT (ω) = I{n≤T } (ω) . O processo de ganhos com este processo de apostas pode ser representado pelo processo DT • X = ((DT • X)n )n∈N definido por: T (Xn−1 − Xn−2 ) + · · · + D1T (X1 − X0 ) = (DT • X)n = DnT (Xn − Xn−1 ) + Dn−1 = Xn − Xn−1 + Xn−1 − Xn−2 + · · · + X1 − X0 = Xn − X0 ( se n ≤ T (ω)) = XT (ω) − XT (ω)−1 + · · · + X1 − X0 = XT (ω) − Xo ( se n > T (ω)) = XT (ω)∧n − Xo ( em qualquer caso). Definição 6. Dados X = (Xn )n∈N um processo estocástico e T tempo de paragem o processo parado em T denotado por XT = (XnT )n∈N é por definição: ∀n ∈ N ∀ω ∈ Ω XnT (ω) = XT (ω)∧n (ω) . Observação 12. Note-se que com esta definição se tem que: DT • X = X T − X 0 e que DT é limitado e não negativo, isto é mais precisamente, 0 ≤ DT ≤ 1, uma vez que por definição 1 T (ω) ≥ n DnT (ω) = 0 T (ω) < n . Pode ainda observar-se que DT é previsı́vel uma vez que tomando apenas os valores zero e um se tem: {DnT = 0} = {T ≤ n − 1} ∈ Fn−1 e {DnT = 1} = {T (ω) ≥ n} = {T (ω) > n − 1} = {T (ω) ≤ n − 1}c . Por aplicação do resultado 1 pode concluir-se que Teorema 2. Se X for uma supermartingala, e T um tempo de paragem então o processo parado XT é uma supermartingala o que implica em particular que: ∀n ∈ N E[XT ∧n ] ≤ E[X0 ] . Se X for uma martingala, e T um tempo de paragem então o processo parado XT é uma martingala o que implica em . ∀n ∈ N E[XT ∧n ] = E[X0 ] . 8 MLE Referências [1] [2] [3] [4] [5] [6] M. Benaı̈m, N. El Karoui; Promenade Aléatoire. Les Éditions de l’École Polytechnique, 2004. B. Burrell; Guide to Everyday Math. Merriam-Webster, Incorporated, Springfield Massachusetts, 1998. D. Dacunha-Castelle, M. Duflo; Probabilités et Statistiques. Volume II, Masson 1983. J. Hoffmann-Jorgensen; Probability with a view toward Statistics, Chapman & Hall, 1994. A. N. Kolmogorov, Foundations of the Theory of Probability, Chelsea Pub. Co. second edition 1960. D. Lamberton, & B. Lapeyre; Introduction to Stochastic Calculus Applied to Finance, Chapman & Hall 1996. [Neveu72] J. Neveu; Martingales a temps discret, Masson, Paris 1972. [7] D. Williams; Probability with Martingales, Cambridge University Press, 1991. [8] Z. Brzeźniak, T. Zastawniak; Basic Stochastic Processes. Springer Verlag, 1999.