Esperança Condicional
Transcrição
Esperança Condicional
ESPERANÇA CONDICIONAL 1. Espaços Produto Sejam (Ω1 , F1 , µ1 ) e (Ω2 , F2 , µ2 ) dois espaços de medida. Façamos Ω = Ω1 × Ω2 o produto cartesiano, queremos definir sobre Ω uma σ-álgebra e uma medida que coincida com µ1 e µ1 sobre F1 e F2 respectivamente. Comecemos pela σ-álgebra. Definição 1.1. Define-se, F, a σ-álgebra produto de F1 por F2 como sendo a menor σálgebra de elementos de Ω que contém os ”rectângulos” do tipo F1 ×F2 , ∀F1 ∈ F1 , F2 ∈ F2 . Ou seja, F = σ(E), E = {F1 × F2 ; F1 ∈ F1 , F2 ∈ F2 }. Escreveremos F = F1 × F2 . Para a medida, µ, que vamos definir sobre (Ω, F), comecemos por defini-la para os elementos de F da forma F1 × F2 , F1 ∈ F1 , F2 ∈ F2 como sendo: µ(F1 × F2 ) = µ1 (F1 ) × µ2 (F2 ). Considere-se agora um elemento F de F. Designemos por Fω2 e Fω1 os subconjuntos de Ω1 e Ω2 , definidos por: Fω2 = {ω1 ∈ Ω1 ; (ω1 , ω2 ) ∈ F }, Fω1 = {ω2 ∈ Ω2 ; (ω1 , ω2 ) ∈ F }. A estes conjuntos chamam-se secções de F . Exercicio 1. Mostre que se F ∈ F então Fω2 ∈ F1 e Fω1 ∈ F2 . Indicação: Fixando ω2 ∈ Ω2 e considerando Sω2 = {F ⊆ Ω; Fω2 ∈ F1 }. (1) Mostre que Sω2 contém todos os elementos do tipo, F1 × F2 , F1 ∈ F1 , F2 ∈ F2 . 1 2 ESPERANÇA CONDICIONAL (2) Mostre que Sω2 é uma σ-álgebra. Concluindo-se que Sω2 contém E e portanto σ(E). Podemos agora definir a medida produto. Definição 1.2. Para F ∈ F define-se a medida µ por: µ(F ) = µ1 (Fω2 )dµ2 (ω2 ). Ω2 Observação 1.3. Repare-se que no caso de F = F1 × F2 , F1 ∈ F1 , F2 ∈ F2 , esta definição coincide com o que já tinhamos dito, pois, µ1 (Fω2 ) = µ1 (F1 )IF2 (ω2 ), ω2 ∈ Ω2 uma vez que Fω2 = F1 se ω2 ∈ F2 e Fω2 = ∅ se ω2 ∈ / F2 . Donde µ1 (Fω2 )dµ2 (ω2 ) = µ1 (F1 )IF2 (ω2 )dµ2 (ω2 ) = µ1 (F1 )µ2 (F2 ). µ(F ) = Ω2 Ω2 Temos agora um primeiro teorema. Teorema 1.4. Se F ∈ F, então as funções ω2 → µ1 (Fω2 ), ω1 → µ2 (Fω1 ) são mensuráveis relativamente a F2 e F1 , respectivamente, e µ1 (Fω2 )dµ2 (ω2 ) = µ2 (Fω1 )dµ1 (ω1 ). Ω2 Ω1 A demonstração deste teorema pode ser encontrada em [1], proposição 8 e teorema 11, pag. 93 e 95. Vamos finalmente enunciar o terema de Fubini. Teorema 1.5. (Teorema de Fubini) Seja f ∈ L1 (Ω1 × Ω2 ) então: (1) As funções ω1 → f (ω1 , ω2 ), ω2 → f (ω1 , ω2 ) são elementos de L1 (Ω1 ) e L1 (Ω2 ), respectivamente. ESPERANÇA CONDICIONAL (2) As funções 3 ω1 → ω2 → f (ω1 , ω2 )dµ2 (ω2 ), f (ω1 , ω2 )dµ1 (ω1 ) Ω2 Ω1 são elementos de L1 (Ω1 ) e L1 (Ω2 ), respectivamente. (3) Ω1 f (ω1 , ω2 )dµ2 (ω2 ) dµ1 (ω1 ) = Ω2 Ω2 = Ω1 ×Ω2 f (ω1 , ω2 )dµ1 (ω1 ) dµ2 (ω2 ) = Ω1 f (ω1 , ω2 )d(µ1 × µ2 ). 2. Pares aleatórios Sejam X, Y duas variáveis aleatórias definidas sobre o mesmo espaço de probabilidade (Ω, F, P), define-se a sua distribuição de probabilidade conjunta (ou lei) como sendo a medida definida sobre B(R2 ) por: PX,Y (B) = P[(X, Y ) ∈ B], B ⊆ R2 . Análogamente ao que foi feito para uma variável aleatória define-se também a função distribuição de probabilidade do par (X, Y ) por FX,Y (x, y) = P[X ≤ x, Y ≤ y] = P[X −1 (] − ∞, x]) ∩ Y −1 (] − ∞, y])]. Se X fôr uma variável aleatória que toma os valores x0 ≤ . . . ≤ xn ≤ . . . e Y uma outra variável aleatória que toma os valores y0 ≤ . . . ≤ ym ≤ . . ., então o par (X, Y ) toma os seus valores no conjunto D = {(xi , yj ); P[X = xi , Y = yj ] > 0}. E neste caso podemos escrever, ∀ B ∈ B(R2 ), PX,Y (B) = pi,j δ(xi ,yj ) (B), (i,j)∈N×N com pi,j = P[X = xi , Y = yj ]ID ((xi , yj )), ∀(i, j) ∈ N × N. E no caso da função distribuição de probabilidade, vem pi,j , com E = {(k, l) ∈ N × N; xk ≤ x, yl ≤ y}. FX,Y (x, y) = (i,j)∈E Para as variáveis aleatórias contı́nuas, se fôr possivel escrever, fX,Y (x, y)dλ2 (x, y) = fX,Y (x, y)dλ(x)dλ(y) PX,Y (B) = B B 4 ESPERANÇA CONDICIONAL em que λ2 é a medida de Lebesgue em R2 , dizemos que fX,Y é a densidade conjunta do par (X, Y ). E no caso do integral de Riemann existir podemos escrever ainda, PX,Y (B) = fX,Y (x, y)IB dxdy = fX,Y (x, y)dxdy. R R B Vindo para a função distribuição conjunta, x0 FX,Y (x0 , y0 ) = −∞ y0 fX,Y (x, y)dydx. −∞ A distribuição conjunta determina as distribuições de X e de Y , pois para A ∈ B(R) PX [A] = PX,Y [A × R], PY [A] = PX,Y [R × A], que se designam por distribuições marginais. Exercicio 2. Mostre que se X, Y são variáveis aleatórias discretas: (1) PX ({xk }) = ∞ pk,j , PY ({yk }) = ∞ j=0 pi,k , i=0 (2) FX (xk ) = k ∞ pi,j , k ∞ FY (yk ) = i=0 j=0 pi,j . j=0 i=0 Exercicio 3. Mostre que se X, Y tem densidade conjunta fX,Y então temos: (1) ∞ fX (x) = fX,Y (x, y)dy, fY (y) = −∞ (2) x0 fX,Y (x, y)dydx, −∞ fX,Y (x, y)dx, −∞ ∞ FX (x0 ) = ∞ −∞ y0 ∞ FY (y0 ) = fX,Y (x, y)dxdy. −∞ −∞ Exercicio 4. Sejam X e Y duas variáveis aleatórias com distribuições de probabilidade PX e PY , respectivamente. Mostre que são equivalentes as seguintes condições: (1) X e Y são independentes, (2) PX,Y = PX PY , (3) FX,Y = FX FY . ESPERANÇA CONDICIONAL 5 Se X, Y tiverem densidade conjunta então qualquer das condições anteriores é equivalente a, fX,Y = fX fY . Exercicio 5. Mostre que se X e Y têm densidade conjunta fX,Y , então a densidade da variável aleatória X + Y é fX+Y (z) = R fX,Y (x, z − x)dx. Definição 2.1. Define-se a probabilidade condicional de Y ∈ B dado que X ∈ A por: P[Y ∈ B|X ∈ A] = P[Y ∈ B, X ∈ A] , P[X ∈ A] desde que P[X ∈ A] > 0. No caso de duas variáveis aleatórias X, Y com densidade de probabilidade fX,Y (x, y), e dados A, B ∈ B(R) teremos, usando o teorema de Fubini, fX,Y (x, y)dλ2 (x, y) = P[Y ∈ B|X ∈ A] = A×B f (x)dλ(x) X A fX,Y (x, y)dxdy f (x, y)dx A X,Y = B A = dy, f (x)dx f (x)dx B A X A X desde que A fX (x)dx = 0. Podemos então dizer que a distribuição condicional de Y dado X ∈ A tem densidade, g(y|X ∈ A) = f (x, y)dx A X,Y A fX (x)dx . Apesar do caso A = {x0 } não fazer sentido, por o denominador ser nulo, leva a que se defina a densidade de Y dado X = x0 por g(y|X = x0 ) = fX,Y (x0 , y) , fX (x0 ) desde que fX (x0 ) > 0. Vindo a probabilidade de Y dado X = x, P[Y ∈ B|X = x] = g(y|x)dy, B e a esperança condicional, respectiva, E[Y |X = x] = yg(y|x)dy. R 6 ESPERANÇA CONDICIONAL Repare-se que a esperança condicional de Y dado X = x é função de x, e podemos então escrever, para ω ∈ Ω, uma nova variável aleatória, E[Y |X](ω) = yg(y|X(ω))dy, R a esperança condicional de Y dado X. A secção que se segue faz parte de um documento relativo a processos estocásticos e paragem óptima que nos foi gentilmente facultado pelo Prof. Manuel Esquı́vel. Por este contributo queremos expressar os nossos sinceros agradecimentos. 3. Definição e Propriedades da Esperança Condicional Desenvolvemos estas notas, relativas à noção de esperança condicional, a partir da exposição magistral de David Williams na obra [2], completando-a com alguns exercı́cios e desenvolvimentos que serão convenientemente referenciados por altura da respectiva apresentação. 3.1. Motivação: o caso finito. Seja (Ω, F, P) um espaço de probabilidade e X e Z duas variáveis aleatórias tomando um número finito de valores i.e.: X(Ω) = {x1 , . . . xm } e Z(Ω) = {z1 , . . . zn } . É conhecida a definição seguinte da probabilidade condicional de um acontecimento dado um outro acontecimento cuja probabilidade seja não nula. P[X = xi | Z = zj ] := P[{X = xi } ∩ {Z = zj }] . P[Z = zj ] Dado que esta probabilidade condicional pode interpretar-se como uma nova probabilidade definida sobre o novo espaço {Z = zi }, é natural definir o valor esperado da variável aleatória X, relativamente a esta probabilidade. E[X | Z = zj ] := m xi P[X = xi | Z = zj ] . i=1 Para tornar a expressão anterior independente do ponto zi , pode agora definir-se uma nova variável aleatória do seguinte modo. ESPERANÇA CONDICIONAL 7 Definição 3.1. A variável aleatória E[X | Z] é definida por: E[X | Z] := (3.1) n E[X | Z = zj ] I{Z=zj } . j=1 Note-se que esta definição diz-nos que se para um ω ∈ Ω fixo, se tem Z(ω) = zj para um certo j, então verifica-se que: E[X | Z](ω) := E[X | Z = zj ] . A variável aleatória assim definida goza de algumas propriedades que passamos a observar detalhadamente. • Considere-se a álgebra-σ G gerada pela variável aleatória Z. Uma consequência do exercı́cio 7 é que: G = σ(Z) = { (3.2) {Z = zj } : J ⊆ {1, . . . , n}} . j∈J pelo que se torna claro que a expressão (3.1) define uma variável aleatória G mensurável. • O cálculo formal seguinte, que seria possı́vel justificar desde que as hipóteses adequadas se encontrassem explicitadas, mostra-nos uma outra propriedade importante verificada pela variável aleatória que definimos acima. Para qualquer l ∈ {1, . . . , }: E[X | Z]dP = E[X | Z = zl ] · P[Z = zl ] = {Z=zl } = m i=1 = m xi P[{X = xi } ∩ {Z = zl }] · P[Z = zl ] = P[Z = zl ] xi P[{X = xi } ∩ {Z = zl }] = i=1 = XdP . {Z=zl } Devido à forma geral dos elementos de G, que é possı́vel observar na fórmula (3.2) e, devido à aditividade do integral relativamente a uma partição do domı́nio de 8 (3.3) ESPERANÇA CONDICIONAL integração, temos finalmente que: E[X | Z]dP = ∀G ∈ G G XdP . G • Uma outra propriedade da variável aleatória E[X | Z] tem uma interpretação geométrica à qual será dada esclarecimento complementar na demonstração do teorema de Kolmogorov. Consideremos L2 (Ω, F, P) o espaço das variáveis aleatórias de quadrado integrável, isto é: 2 2 X dP < +∞ . L (Ω, F, P) := X : Ω → R : Ω Este espaço pode ser munido de uma forma (bilinear) semi-definida positiva, um produto interno, do modo seguinte. ∀X, Y ∈ L (Ω, F, P) X, Y := X × Y dP . 2 Ω Para este produto interno pode definir-se a noção de ortogonalidade semelhante à noção de ortogonalidade no espaço euclideano usual, isto é: ∀X, Y ∈ L2 (Ω, F, P) X ⊥ Y ⇔ X, Y = 0 Pode verificar-se que, para G subálgebra-σ de F, se tem que L2 (Ω, G, P) é um subespaço fechado de L2 (Ω, F, P) e que E[X | Z] é a projecção ortogonal de X ∈ L2 (Ω, F, P) sobre o subespaço L2 (Ω, G, P). Sabe-se, veja-se [2][p. 67], que Z é a projecção ortogonal de X ∈ L2 (Ω, F, P) sobre L2 (Ω, G, P) se e só se: ∀Y ∈ L2 (Ω, G, P) X − Z, Y = 0 . Ora, a segunda propriedade que analisámos acima e que está condensada na fórmula 3.3, permite-nos dizer que: ∀G ∈ G X − E[X | Z], IG = 0 . Mas, pela linearidade e pela densidade das funções simples em L2 (Ω, G, P) pode deduzir-se que: ∀Y ∈ L2 (Ω, G, P) X − E[X | Z], Y = 0 , pelo que a conclusão anunciada segue. ESPERANÇA CONDICIONAL 9 Exercicio 6. Mostre directamente que: X − E[X | Z], E[X | Z] = 0 . Exercicio 7. Seja A = {A1 , A2 , . . . , Ap }, uma partição de Ω. (1) Mostre que: σ(A) = { Ai : I ⊂ {1, 2, . . . , p}} . i∈I (2) Seja X uma variável aleatória σ(A) mensurável. Mostre que X é constante sobre os conjuntos Ai para i ∈ {1, 2, . . . , p}. (3) Conclua que para α1 , α2 , . . . , αp ∈ R se tem: X= p αi IAi . i=1 Exercicio 8. Seja (Ω, F, P) um espaço de probabilidade e Y uma variável aleatória real e integrável, definida sobre este espaço. (1) Sendo B = {∅, Ω} determine E[Y |B]. (2) Sendo B ∈ F, tal que 0 < P[B] < 1 e B1 = σ({B}) determine E[Y |B1 ]. (3) Sendo X uma variável aleatória real tomando, P quase certamente, dois valores x1 ou x2 , determine E[Y |X]. (4) Seja X uma variável aleatória tomando, P quase certamente, um número finito de valores x1 , . . . , xn tal que para i = 1, . . . , n se tenha que P[X = xi ] = 0. Determine E[Y |X]. (5) Suponha que a variável aleatória X toma, quase certamente, os seus valores num conjunto numerável {xn : n ∈ N} e ainda que ∀n ∈ N P[X = xn ] = 0 . Determine E[Y |X]. 3.2. O caso geral. As duas primeiras propriedades que pudémos observar, acima, no caso de duas variáveis aleatórias tomando um número finito de valores foram usadas por 10 ESPERANÇA CONDICIONAL Kolmogorov1 para definir em condições muito gerais a noção de esperança condicional. A terceira propriedade sugere a demonstração do resultado fazendo apelo à estrutura geométrica de espaço de Hilbert das variáveis aleatórias de quadrado integrável. Teorema 3.2 (Kolmogorov 1933). Seja (Ω, F, P) um espaço de probabilidade, X uma variável aleatória integrável e G uma sub-sigma-álgebra de F. Então: (1) Existe então uma variável aleatória Y tal que: (a) Y é integrável, (b) Y é mensurável relativamente a G, (3.4) (c) Y verifica a seguinte propriedade: Y dP = ∀G ∈ G G XdP . G (2) Se Y e Ỹ forem duas variáveis aleatórias verificando as três propriedades da alı́nea 1 acima, então Y = Ỹ P q.c. . Em consequência do ponto 1 do teorema de Kolmogorov podemos definir a noção de esperança condicional no caso geral. Definição 3.3. Nas condições do teorema de Kolmogorov acima qualquer variável aleatória que verifique as propriedades do ponto 1 denomina-se uma versão da esperança condicional de X dada G e representa-se por: E[X | G] . Demonstração. A prova da existência para uma dada variável aleatória X em L2 decorre do teorema que garante a melhor aproximação para ”subespaços” fechados de L2 . Com efeito, como se verifica que G ⊂ F temos L2 (Ω, G, P) ⊂ L2 (Ω, F, P) podendo mesmo afirmar que, com as reservas feitas quanto à definição da adição nos espaços de funções 1Andrei Nikolaevich Kolmogorov, matemático russo (1903–1987) fundamentou a teoria das probabili- dades axiomatizando-a no quadro da teoria da medida. Segundo Hoffman-Jorgensen [7][vol. I, p. xxxvi] a obra datada de 1933, onde expõe esta fundamentação, foi recebida pelos probabilistas seus contemporâneos quase com euforia. Esta obra foi posteriormente traduzida para a lı́ngua inglesa (veja-se [8]). ESPERANÇA CONDICIONAL 11 integráveis, L2 (Ω, G, P) é um subespaço vectorial de L2 (Ω, F, P). Em consequência, para qualquer elemento X de L2 (Ω, F, P) existe Y no espaço L2 (Ω, G, P) tal que: ∀Z ∈ L2 (Ω, G, P) X − Y ⊥ Z . Como para G ∈ G se tem que IG ∈ L2 (Ω, G, P) temos: ∀G ∈ G < X − Y, IG >= 0 e como as variáveis X and Y são integráveis temos, de forma equivalente, XdP = Y dP . ∀G ∈ G G G Observando que, por ser Y ∈ L (Ω, G, P) se tem que Y é G mensurável e é integrável 2 temos, finalmente, que Y é uma versão da esperança condicional de X dada G. Para a demonstração da unicidade e da existência no caso geral pode o leitor referir-se à obra [2][p. 86]. Exercicio 9. Seja (Ω, F, P) um espaço de probabilidade, e Y uma variável aleatória definida sobre este espaço tomando valores em Rm . Seja agora T uma outra variável aleatória sobre o mesmo espaço e tomando valores em Rp . Mostre que se Y for mensurável relativamente à sigma-álgebra σ(T ) então existe uma aplicação φ de Rp em Rm tal que: Y = φ(T ) . Exercicio 10. Seja (Ω, F, P) um espaço de probabilidade, e X uma variável aleatória definida sobre este espaço tomando valores em Rm . Seja agora T uma outra variável aleatória sobre o mesmo espaço e tomando valores em Rp . Define-se a esperança condicional de X dado que T = t como qualquer função φ mensurável de Rp em R tal que: p ∀B ∈ B(R ) φ(t)dPT (t) = XdP . B T −1 (B) onde PT é a lei de T . (1) Mostre que a esperança condicional de X dado que T = t existe se X for integrável. (2) Mostre que se Y e Ỹ forem duas esperanças condicionais de X dado que T = t então: Y = Ỹ P q.c. . 12 ESPERANÇA CONDICIONAL (3) Mostre que se verifica: E[X | T ] = φ(T ) se φ(t) = E[X | T = t] . 3.3. Como calcular esperanças condicionais. Para a determinação das esperanças condicionais num dado caso especı́fico podem usar-se como métodos, entre outros, os seguintes: • O recurso à definição evocada na secção 3.1 para o caso em que as variáveis aleatórias são discretas, isto é tomam um número finito ou infinito numerável de valores. • O recurso às densidades das leis das variáveis aleatórias em presença. • O recurso às propriedades operatórias das esperanças condicionais. Vamos estudar em detalhe o método evocado no segundo ponto da lista anterior enquanto que o terceiro método referido será desenvolvido na secção 3.4. Relembremos que se X e Z forem variáveis aleatórias admitindo uma lei conjunta com densidade dada pela função de duas variáveis fX,Z (x, z) então X (respectivamente Z) admite como densidade fX (respectivamente fZ ) dada por: fX (x) = fX,Z (x, z)dz respectivamente fZ (z) = fX,Z (x, z)dx . R R Observe-se ainda que se, por exemplo, for fX (x0 ) = 0 então, dado que fX,Z é positiva, se tem que fX,Z (x0 , z) = 0 quase por toda a parte relativamente à variável z e à medida de Lebesgue em R. Teorema 3.4. Sejam X e Z, variáveis aleatórias admitindo uma lei conjunta com densidade dada pela função de duas variáveis fX,Z (x, z). Seja h uma função Borel mensurável tal que: E[|h(X)|] = R |h(X)|fX (x)dx < +∞ , onde fX (x) é a densidade da lei marginal da variável X. Então se for g a função de variável real definida por: g(z) := h(x) R fX,Z (x, z) I{fZ =0} dx , fZ (z) tem-se que g(Z) é uma versão de E[h(X) | σ(Z)]. ESPERANÇA CONDICIONAL 13 Demonstração. Pelas propriedades de definição da esperança condicional enunciadas no teorema de Kolmogorov e dado que por definição se tem que: σ(Z) := Z −1 (B(R)) := {Z −1 (B) : B ∈ B(R)} , para que seja válida a condição do teorema temos que verificar que: g(Z)dP = h(X)dP . ∀B ∈ B(R) Z −1 (B) Z −1 (B) Atendendo a que IZ −1 (B) ≡ IB ◦ Z, é equivalemte verificar que: g(Z) (IB ◦ Z) dP = h(X) (IB ◦ Z) dP . ∀B ∈ B(R) Z −1 (B) Ω Dado que, por hipótese, as leis das variáveis aleatórias são-nos dadas pelas respectivas densidades a igualdade entre os integrais pode representar-se de forma equivalente por: g(z) IB (z) fZ (z)dz = h(x) IB (z)fX,Z (x, z) dxdz . ∀B ∈ B(R) R R R Finalmente, observando que se para um dado z0 se tiver fZ (z0 ) = 0 então também para todo o x se verifica que fX,Z (x, z0 ) = 0 salvo num conjunto de medida de Lebesgue nula, podemos usar no integral, sem lhe alterar o valor, a seguinte igualdade: fX,Z (x, z) = fX,Z (x, z) I{fZ =0} fZ (z) , fZ (z) Em consequência, podemos representar a igualdade de integrais acima pela igualdade seguinte: ∀B ∈ B(R) fZ (z)g(z)dz = B fZ (z) B fX,Z (x, z) h(x) I{fZ =0} dx fZ (z) R dz , o que mostra que a representação para a função g, formulada na hipótese do teorema, é suficiente para garantir o resultado anunciado. Exercicio 11. Sejam X e Y variáveis aleatórias independentes com distribuições de Poisson de parâmetros λ e µ, respectivamente. (1) Verifique que X + Y segue uma distribuição de Poisson de parâmetro λ + µ. (2) Calcule a distribuição de X condicionada por Z = X + Y . (3) Calcule E(X|Z). 14 ESPERANÇA CONDICIONAL Exercicio 12. Consideremos um vector aleatório (X, Y ) cuja distribuição é dada pelo quadro seguinte: Y -1 -1 X 0.1 0 0.15 0 1 2 0.15 0 0.1 0 1 0.05 0.05 0.1 0.2 0 0.1 Calcule a distribuição de Y condicionada por X = n, n = −1, 0, 1, E(Y |X) e E(Y ). Exercicio 13. Seja (X, Y ) um vector aleatório com densidade fX,Y (x, y). Mostre que se definirmos fY (y) por: fY (y) := fX,Y (x, y) dx R então a variável aleatória admitindo como densidade: fX|Y (x|y) = fX,Y (x, y) I{fY =0} (y) , fY (y) é uma versão da esperança condicional de X dado Y = y. Exercicio 14. Seja (X, Y ) um vector aleatório com densidade f (x, y) = 2 I[0,+∞[×[0,+∞[ (x, y) , (1 + x + y)3 Calcule E(X|Y ). 3.4. Propriedades operatórias das esperanças condicionais. Nesta secção apresentamos uma lista das principais propriedades operatórias da noção de esperança condicional que tal como já referimos são de grande utilidade no cálculo esplícito. Genericamente denotamos por X uma variável aleatória integrável e por G uma sub-sigma-álgebra de F. Propriedade 1. Se Y for uma versão de E[X | G] temos que E[Y ] = E[X] o que podemos representar por: E [E[X | G]] = E[X] . ESPERANÇA CONDICIONAL 15 Demonstração. Repare-se que pela definição temos que E[X|G]dP = XdP, G ∈ G, G G em particular como Ω ∈ G vem E[X|G]dP = E[E[X|G]] = XdP = E[X]. Ω Ω Propriedade 2. Se X for G mensurável então X é uma versão de E[X | G], o que podemos representar por E[X | G] = X . Demonstração. Como para Y = X, temos que Y é integrável, e como XdP ∀G ∈ G, Y dP = G G então se X fôr mensurável relativamente a G vem que Y é mensurável relativamente a G e portanto Y verifica as três condições para que seja uma versão da esperança condicional de X dado G. Propriedade 3. Seja Y1 (respectivamente Y2 ) uma versão de E[X1 | G] (respectivamente E[X2 | G]). Então, para λ e µ números reais, temos que λY1 + µY2 é uma versão de E[λX1 + µX2 | G], o que podemos representar por: E[λX1 + µX2 | G] = λE[X1 | G] + µE[X2 | G] . Demonstração. Temos que ∀G ∈ G, λE[X1 | G] + µE[X2 | G]dP = λ E[X1 | G]dP + µ E[X2 | G]dP = G G X1 dP + µ λ G G X2 dP = G (λX1 + µX2 )dP, G o que permite concluir que λE[X1 | G] + µE[X2 | G] é uma versão da esperança condicional de λX1 + µX2 dado G. 16 ESPERANÇA CONDICIONAL Propriedade 4. Se X for uma variável aleatória não negativa (isto é X ≥ 0) então qualquer versão da esperança condicional de X dada G, é não negativa isto é, com o abuso de notação convencional: E[X | G] ≥ 0, P − q.c. . Demonstração. Façamos ∀n ≥ 1, An = {E[X | G] ≤ − n1 }. Então temos que An ∈ G e se X ≥ 0 vem 1 E[X | G]dP ≤ − P[An ], n An An o que obriga a que P[An ] = 0, n ≥ 1. Como 0≤ XdP = {E[X | G] < 0} = ∞ An , n=1 vem que P[{E[X | G] < 0}] = 0, o que prova o pretendido Propriedade 5 (Convergência Monótona). Seja (Xn )n∈N uma sucessão de variáveis aleatórias não negativas e crescente, quase certamente, para uma outra variável aleatória X. Então, se para cada n ∈ N se tiver que Yn é uma versão da esperança condicional de Xn dada G e, se Y for uma versão da esperança condicional de X dada G, tem-se que limn→+∞ Yn ↑ Y ou ainda: lim E[Xn | G] ↑ E[X | G], P − q.c. . n→+∞ Demonstração. Como Xn ≥ 0 e Xn+1 − Xn ≥ 0 vem pelas duas últimas propriedades que Yn ≥ 0 e Yn+1 − Yn ≥ 0 donde 0 ≤ Yn ↑. Fazendo Y = lim Yn vem pelo teorema da convergência monótona de Lebesgue e pelas hipóteses, que Y dP = lim Yn dP = lim Yn dP = lim Xn dP = lim Xn dP = XdP, ∀G ∈ G, G G G G G donde pela unicidade vem que E[X | G] = Y = lim Yn = lim E[Xn | G], P − q.c.. G Propriedade 6 (Lema de Fatou). Seja (Xn )n∈N uma sucessão de variáveis aleatórias não negativas, então E[lim inf Xn | G] ≤ lim inf E[Xn | G], P − q.c. ESPERANÇA CONDICIONAL 17 Demonstração. Fazendo Yk = inf n≥k Xn , ∀k ∈ N teremos que Yk ≤ Xn , ∀n ≥ k vindo pela propriedade (4) que ∀n ≥ k, E[Yk | G] ≤ E[Xn | G], P − q.c. o que implica que E[Yk | G] ≤ inf E[Xn | G], P − q.c. n≥k Como a desigualdade anterior é válida para todo o k, teremos ainda lim E[Yk | G] ≤ lim inf E[Xn | G], P − q.c. k k n≥k Aplicando agora a propriedade (5) à sucessão Yk virá, E[lim Yk | G] ≤ lim inf E[Xn | G], P − q.c., k o que termina a prova. Propriedade 7 (Convergência Dominada). Seja (Xn )n∈N uma sucessão de variáveis aleatórias convergentes, quase certamente, para uma outra variável aleatória X e tais que para V v. a. não negativa e integrável se tenha: ∀n ∈ N |Xn | ≤ V P − q.c. Então, se para cada n ∈ N se tiver que Yn é uma versão da esperança condicional de Xn dada G e, se Y for uma versão da esperança condicional de X dada G, tem-se que limn→+∞ Yn = Y ou ainda: lim E[Xn | G] = E[X | G] n→+∞ Demonstração. Repare-se que ∀n ∈ N, V − Xn ≥ 0 e V + Xn ≥ 0, donde pela propriedade anterior vem que E[lim inf(V − Xn ) | G] ≤ lim inf E[V − Xn | G] E[lim inf(V + Xn ) | G] ≤ lim inf E[V + Xn | G]. Usando agora o facto de V ser integrável juntamente com a linearidade da esperança condicional, vem E[X | G] ≥ lim sup E[Xn | G] E[X | G] ≤ lim inf E[Xn | G], 18 ESPERANÇA CONDICIONAL o que permite concluir o pretendido. Propriedade 8. Se Y for uma variável G mensurável tal que E[|XY |] < +∞ então: E[X · Y | G] = Y · E[X | G] . Demonstração. Para a prova deste resultado vamos usar o método geral, e vamos assumir que X ≥ 0 (o caso geral sai pela linearidade e de X = X + − X − ). (1) Para Y = IA com A ∈ G vem que (a) IA E[X | G]dP = E[X | G]dP = XdP = ∀G ∈ G, Y E[X | G]dP = G G G∩A G∩A IA XdP = Y XdP = G G sendo (a) justificado pelo facto de G ∩ A ∈ G, e concluindo-se pela unicidade que E[Y X | G] = Y E[X | G]. (2) Para Y = ci IAi , simples não negativa temos pela linearidade e por (1) IAi E[X | G]dP = IAi XdP = Y XdP. ∀G ∈ G, Y E[X | G]dP = G G G G (3) Para Y mensurável não negativa sabemos que Y = lim Sn com Sn simples não negativas, usando o teor. da conv. monótona de Lebesgue e (2), vem Y E[X | G]dP = lim Sn E[X | G]dP = lim Sn E[X | G]dP = G G G = lim Sn XdP = lim Sn XdP = Y XdP. G G G (4) Finalmente no caso em que Y é integrável e E[|Y X|] < ∞, temos que E[(Y X)+ ] < ∞ e E[(Y X)− ] < ∞ e vem por (3) e por X ≥ 0, + Y E[X | G]dP = Y E[X | G]dP − Y − E[X | G]dP = G G G + − Y XdP − Y XdP = Y XdP, = G G G o que termina a demonstração. ESPERANÇA CONDICIONAL 19 Propriedade 9 (Tower law). Se G for uma sub-sigma-álgebra de F tal que G ⊂ G então: E E[X | G ] | G = E E[X | G] | G = E[X | G ] . Demonstração. Pela definição temos que ∀G ∈G, E[X | G ]dP = G G XdP como G ⊂ G vem que G ∈ G e portanto XdP = G G E[X | G]dP. Como temos agora, ∀G ∈G, G E[X | G ]dP = G E[X | G]dP, conclui-se que E[X | G ] = E[E[X | G] | G ]. Para a outra igualdade é análogo. Propriedade 10. Se X é independente de G então, E[X | G] = E[X]. Demonstração. Temos que ∀G ∈ G, XIG dP = E[XIG ] XdP = G Ω como X é independente de G e IG é G-mensurável vem que X e IG são independentes e por um resultado já provado temos que XdP = E[XIG ] = E[X]E[IG ] = E[X]IG dP = E[X]dP, G Ω G o que permite concluir que E[X | G] = E[X]. 20 ESPERANÇA CONDICIONAL 4. Exercı́cios de Revisão Exercicio 15. Seja (Xn )n∈N∗ uma sucessão de variáveis aleatórias iid tais que: E[X1 ] = µ , V[X1 ] = ν . Seja N uma variável aleatória inteira independente das variáveis (Xn )n∈N∗ e tal que: E[N ] = α , V[N ] = β . Seja ainda: ∀n ∈ N∗ Sn = n Xk . k=1 (1) Mostre que SN é uma variável aleatória e que: E[SN |N = n] = E[Sn ] . (2) Deduza do resultado precedente expressões para E[SN ] e para V[SN ]. Exercicio 16. Seja (Xn )n∈N uma sucessão de variáveis aleatórias independentes integráveis tal que para qualquer n ∈ N se tenha E[Xn ] = µn . Seja para cada n ∈ N Fn := σ(X1 , . . . , Xn ). Mostre que: (1) para k > n se tem que: k n k Xj | Fn = Xj + µj e que , E j=1 E k j=1 Xj | Fn = j=1 n j=n+1 Xj j=1 k µj . j=n+1 existem e são finitas mostre que: (2) Supondo que as variâncias V[Xn ] = 2 2 n k k E (Xj − µj ) | Fn = (Xj − µj ) + σj2 . σn2 , j=1 j=1 j=n+1 Exercicio 17. Seja um vector aleatório bidimensional (X, Y ) com função distribuição FX,Y (x, y). Seja por definição: H(x|y) := P[X ≤ x|Y = y] , ESPERANÇA CONDICIONAL 21 a função de distribuição condicional de X dada Y . Mostre que: y H(x|u)FY (du) , FX,Y (x, y) = −∞ onde FY (y) é a função de distribuição marginal de Y . Exercicio 18. Seja (X, Y ) um vector aleatório definido sobre Ω = [0, 1] × [0, 1] com densidade fX,Y (x, y) = x + y. Calcule E[X | Y ], e E[X | X + Y ]. Referências 1. [Adam86] M. Adams, V. Guillemin, Measure Theory and Probability, Birkhäuser, 1986. 2. [Will91] D. Williams, Probability with Martingales, Cambridge University Press, 1991. 3. [Capi99] M. Capiński, E. Kopp, Measure, Integral and Probability, Springer, 1999. 4. [Brze99] Z. Brzeźniak, T. Zastawniak, Basic Stochastic Processes, Springer, 1999. 5. [Cott80] M. Cottrell, Ch. Duhamel, V. Genon-Catalot, Exercices de probabilités, Librairie Belin, 1980. 6. [DaCul70] D. Dacunha-Castelle, D. Revuz, M. Schreiber Recueil de problèmes de calcul des probabilités, Masson, Paris, 1970. 7. [Hoff94] J. Hoffmann-J, Probability with a view towards Statistics, Chapman & Hall, 1994. 8. [Kolm50] A. N. Kolmogorov, Foundations of the theory of Probability, Chelsea Books, 1950.