Esperança Condicional

Transcrição

Esperança Condicional
ESPERANÇA CONDICIONAL
1. Espaços Produto
Sejam (Ω1 , F1 , µ1 ) e (Ω2 , F2 , µ2 ) dois espaços de medida. Façamos
Ω = Ω1 × Ω2
o produto cartesiano, queremos definir sobre Ω uma σ-álgebra e uma medida que coincida
com µ1 e µ1 sobre F1 e F2 respectivamente.
Comecemos pela σ-álgebra.
Definição 1.1. Define-se, F, a σ-álgebra produto de F1 por F2 como sendo a menor σálgebra de elementos de Ω que contém os ”rectângulos” do tipo F1 ×F2 , ∀F1 ∈ F1 , F2 ∈ F2 .
Ou seja,
F = σ(E), E = {F1 × F2 ; F1 ∈ F1 , F2 ∈ F2 }.
Escreveremos F = F1 × F2 .
Para a medida, µ, que vamos definir sobre (Ω, F), comecemos por defini-la para os
elementos de F da forma F1 × F2 , F1 ∈ F1 , F2 ∈ F2 como sendo:
µ(F1 × F2 ) = µ1 (F1 ) × µ2 (F2 ).
Considere-se agora um elemento F de F. Designemos por Fω2 e Fω1 os subconjuntos
de Ω1 e Ω2 , definidos por:
Fω2 = {ω1 ∈ Ω1 ; (ω1 , ω2 ) ∈ F },
Fω1 = {ω2 ∈ Ω2 ; (ω1 , ω2 ) ∈ F }.
A estes conjuntos chamam-se secções de F .
Exercicio 1. Mostre que se F ∈ F então Fω2 ∈ F1 e Fω1 ∈ F2 .
Indicação: Fixando ω2 ∈ Ω2 e considerando Sω2 = {F ⊆ Ω; Fω2 ∈ F1 }.
(1) Mostre que Sω2 contém todos os elementos do tipo, F1 × F2 , F1 ∈ F1 , F2 ∈ F2 .
1
2
ESPERANÇA CONDICIONAL
(2) Mostre que Sω2 é uma σ-álgebra.
Concluindo-se que Sω2 contém E e portanto σ(E).
Podemos agora definir a medida produto.
Definição 1.2. Para F ∈ F define-se a medida µ por:
µ(F ) =
µ1 (Fω2 )dµ2 (ω2 ).
Ω2
Observação 1.3. Repare-se que no caso de F = F1 × F2 , F1 ∈ F1 , F2 ∈ F2 , esta definição
coincide com o que já tinhamos dito, pois,
µ1 (Fω2 ) = µ1 (F1 )IF2 (ω2 ), ω2 ∈ Ω2
uma vez que Fω2 = F1 se ω2 ∈ F2 e Fω2 = ∅ se ω2 ∈
/ F2 . Donde
µ1 (Fω2 )dµ2 (ω2 ) =
µ1 (F1 )IF2 (ω2 )dµ2 (ω2 ) = µ1 (F1 )µ2 (F2 ).
µ(F ) =
Ω2
Ω2
Temos agora um primeiro teorema.
Teorema 1.4. Se F ∈ F, então as funções
ω2 → µ1 (Fω2 ),
ω1 → µ2 (Fω1 )
são mensuráveis relativamente a F2 e F1 , respectivamente, e
µ1 (Fω2 )dµ2 (ω2 ) =
µ2 (Fω1 )dµ1 (ω1 ).
Ω2
Ω1
A demonstração deste teorema pode ser encontrada em [1], proposição 8 e teorema 11,
pag. 93 e 95.
Vamos finalmente enunciar o terema de Fubini.
Teorema 1.5. (Teorema de Fubini) Seja f ∈ L1 (Ω1 × Ω2 ) então:
(1) As funções
ω1 → f (ω1 , ω2 ),
ω2 → f (ω1 , ω2 )
são elementos de L1 (Ω1 ) e L1 (Ω2 ), respectivamente.
ESPERANÇA CONDICIONAL
(2) As funções
3
ω1 →
ω2 →
f (ω1 , ω2 )dµ2 (ω2 ),
f (ω1 , ω2 )dµ1 (ω1 )
Ω2
Ω1
são elementos de L1 (Ω1 ) e L1 (Ω2 ), respectivamente.
(3)
Ω1
f (ω1 , ω2 )dµ2 (ω2 ) dµ1 (ω1 ) =
Ω2
Ω2
=
Ω1 ×Ω2
f (ω1 , ω2 )dµ1 (ω1 ) dµ2 (ω2 ) =
Ω1
f (ω1 , ω2 )d(µ1 × µ2 ).
2. Pares aleatórios
Sejam X, Y duas variáveis aleatórias definidas sobre o mesmo espaço de probabilidade
(Ω, F, P), define-se a sua distribuição de probabilidade conjunta (ou lei) como sendo a
medida definida sobre B(R2 ) por:
PX,Y (B) = P[(X, Y ) ∈ B], B ⊆ R2 .
Análogamente ao que foi feito para uma variável aleatória define-se também a função
distribuição de probabilidade do par (X, Y ) por
FX,Y (x, y) = P[X ≤ x, Y ≤ y] = P[X −1 (] − ∞, x]) ∩ Y −1 (] − ∞, y])].
Se X fôr uma variável aleatória que toma os valores x0 ≤ . . . ≤ xn ≤ . . . e Y uma outra
variável aleatória que toma os valores y0 ≤ . . . ≤ ym ≤ . . ., então o par (X, Y ) toma os
seus valores no conjunto D = {(xi , yj ); P[X = xi , Y = yj ] > 0}. E neste caso podemos
escrever,
∀ B ∈ B(R2 ),
PX,Y (B) =
pi,j δ(xi ,yj ) (B),
(i,j)∈N×N
com pi,j = P[X = xi , Y = yj ]ID ((xi , yj )), ∀(i, j) ∈ N × N.
E no caso da função distribuição de probabilidade, vem
pi,j , com E = {(k, l) ∈ N × N; xk ≤ x, yl ≤ y}.
FX,Y (x, y) =
(i,j)∈E
Para as variáveis aleatórias contı́nuas, se fôr possivel escrever,
fX,Y (x, y)dλ2 (x, y) =
fX,Y (x, y)dλ(x)dλ(y)
PX,Y (B) =
B
B
4
ESPERANÇA CONDICIONAL
em que λ2 é a medida de Lebesgue em R2 , dizemos que fX,Y é a densidade conjunta do
par (X, Y ). E no caso do integral de Riemann existir podemos escrever ainda,
PX,Y (B) =
fX,Y (x, y)IB dxdy =
fX,Y (x, y)dxdy.
R
R
B
Vindo para a função distribuição conjunta,
x0 FX,Y (x0 , y0 ) =
−∞
y0
fX,Y (x, y)dydx.
−∞
A distribuição conjunta determina as distribuições de X e de Y , pois para A ∈ B(R)
PX [A] = PX,Y [A × R],
PY [A] = PX,Y [R × A],
que se designam por distribuições marginais.
Exercicio 2. Mostre que se X, Y são variáveis aleatórias discretas:
(1)
PX ({xk }) =
∞
pk,j ,
PY ({yk }) =
∞
j=0
pi,k ,
i=0
(2)
FX (xk ) =
k ∞
pi,j ,
k ∞
FY (yk ) =
i=0 j=0
pi,j .
j=0 i=0
Exercicio 3. Mostre que se X, Y tem densidade conjunta fX,Y então temos:
(1)
∞
fX (x) =
fX,Y (x, y)dy,
fY (y) =
−∞
(2)
x0
fX,Y (x, y)dydx,
−∞
fX,Y (x, y)dx,
−∞
∞
FX (x0 ) =
∞
−∞
y0
∞
FY (y0 ) =
fX,Y (x, y)dxdy.
−∞
−∞
Exercicio 4. Sejam X e Y duas variáveis aleatórias com distribuições de probabilidade
PX e PY , respectivamente. Mostre que são equivalentes as seguintes condições:
(1) X e Y são independentes,
(2) PX,Y = PX PY ,
(3) FX,Y = FX FY .
ESPERANÇA CONDICIONAL
5
Se X, Y tiverem densidade conjunta então qualquer das condições anteriores é equivalente
a, fX,Y = fX fY .
Exercicio 5. Mostre que se X e Y têm densidade conjunta fX,Y , então a densidade da
variável aleatória X + Y é
fX+Y (z) =
R
fX,Y (x, z − x)dx.
Definição 2.1. Define-se a probabilidade condicional de Y ∈ B dado que X ∈ A por:
P[Y ∈ B|X ∈ A] =
P[Y ∈ B, X ∈ A]
,
P[X ∈ A]
desde que P[X ∈ A] > 0.
No caso de duas variáveis aleatórias X, Y com densidade de probabilidade fX,Y (x, y),
e dados A, B ∈ B(R) teremos, usando o teorema de Fubini,
fX,Y (x, y)dλ2 (x, y)
=
P[Y ∈ B|X ∈ A] = A×B
f
(x)dλ(x)
X
A
fX,Y (x, y)dxdy
f (x, y)dx
A X,Y
= B A
=
dy,
f (x)dx
f (x)dx
B
A X
A X
desde que A fX (x)dx = 0. Podemos então dizer que a distribuição condicional de Y dado
X ∈ A tem densidade,
g(y|X ∈ A) =
f (x, y)dx
A X,Y
A
fX (x)dx
.
Apesar do caso A = {x0 } não fazer sentido, por o denominador ser nulo, leva a que se
defina a densidade de Y dado X = x0 por
g(y|X = x0 ) =
fX,Y (x0 , y)
,
fX (x0 )
desde que fX (x0 ) > 0.
Vindo a probabilidade de Y dado X = x,
P[Y ∈ B|X = x] =
g(y|x)dy,
B
e a esperança condicional, respectiva,
E[Y |X = x] =
yg(y|x)dy.
R
6
ESPERANÇA CONDICIONAL
Repare-se que a esperança condicional de Y dado X = x é função de x, e podemos então
escrever, para ω ∈ Ω, uma nova variável aleatória,
E[Y |X](ω) =
yg(y|X(ω))dy,
R
a esperança condicional de Y dado X.
A secção que se segue faz parte de um documento relativo a processos estocásticos e
paragem óptima que nos foi gentilmente facultado pelo Prof. Manuel Esquı́vel. Por este
contributo queremos expressar os nossos sinceros agradecimentos.
3. Definição e Propriedades da Esperança Condicional
Desenvolvemos estas notas, relativas à noção de esperança condicional, a partir da
exposição magistral de David Williams na obra [2], completando-a com alguns exercı́cios
e desenvolvimentos que serão convenientemente referenciados por altura da respectiva
apresentação.
3.1. Motivação: o caso finito. Seja (Ω, F, P) um espaço de probabilidade e X e Z duas
variáveis aleatórias tomando um número finito de valores i.e.:
X(Ω) = {x1 , . . . xm } e Z(Ω) = {z1 , . . . zn } .
É conhecida a definição seguinte da probabilidade condicional de um acontecimento dado
um outro acontecimento cuja probabilidade seja não nula.
P[X = xi | Z = zj ] :=
P[{X = xi } ∩ {Z = zj }]
.
P[Z = zj ]
Dado que esta probabilidade condicional pode interpretar-se como uma nova probabilidade
definida sobre o novo espaço {Z = zi }, é natural definir o valor esperado da variável
aleatória X, relativamente a esta probabilidade.
E[X | Z = zj ] :=
m
xi P[X = xi | Z = zj ] .
i=1
Para tornar a expressão anterior independente do ponto zi , pode agora definir-se uma
nova variável aleatória do seguinte modo.
ESPERANÇA CONDICIONAL
7
Definição 3.1. A variável aleatória E[X | Z] é definida por:
E[X | Z] :=
(3.1)
n
E[X | Z = zj ] I{Z=zj } .
j=1
Note-se que esta definição diz-nos que se para um ω ∈ Ω fixo, se tem Z(ω) = zj para
um certo j, então verifica-se que:
E[X | Z](ω) := E[X | Z = zj ] .
A variável aleatória assim definida goza de algumas propriedades que passamos a observar
detalhadamente.
• Considere-se a álgebra-σ G gerada pela variável aleatória Z. Uma consequência
do exercı́cio 7 é que:
G = σ(Z) = {
(3.2)
{Z = zj } : J ⊆ {1, . . . , n}} .
j∈J
pelo que se torna claro que a expressão (3.1) define uma variável aleatória G
mensurável.
• O cálculo formal seguinte, que seria possı́vel justificar desde que as hipóteses
adequadas se encontrassem explicitadas, mostra-nos uma outra propriedade importante verificada pela variável aleatória que definimos acima. Para qualquer
l ∈ {1, . . . , }:
E[X | Z]dP = E[X | Z = zl ] · P[Z = zl ] =
{Z=zl }
=
m
i=1
=
m
xi
P[{X = xi } ∩ {Z = zl }]
· P[Z = zl ] =
P[Z = zl ]
xi P[{X = xi } ∩ {Z = zl }] =
i=1
=
XdP .
{Z=zl }
Devido à forma geral dos elementos de G, que é possı́vel observar na fórmula (3.2)
e, devido à aditividade do integral relativamente a uma partição do domı́nio de
8
(3.3)
ESPERANÇA CONDICIONAL
integração, temos finalmente que:
E[X | Z]dP =
∀G ∈ G
G
XdP .
G
• Uma outra propriedade da variável aleatória E[X | Z] tem uma interpretação geométrica à qual será dada esclarecimento complementar na demonstração do teorema de Kolmogorov. Consideremos L2 (Ω, F, P) o espaço das variáveis aleatórias
de quadrado integrável, isto é:
2
2
X dP < +∞ .
L (Ω, F, P) := X : Ω → R :
Ω
Este espaço pode ser munido de uma forma (bilinear) semi-definida positiva, um
produto interno, do modo seguinte.
∀X, Y ∈ L (Ω, F, P) X, Y :=
X × Y dP .
2
Ω
Para este produto interno pode definir-se a noção de ortogonalidade semelhante à
noção de ortogonalidade no espaço euclideano usual, isto é:
∀X, Y ∈ L2 (Ω, F, P) X ⊥ Y ⇔ X, Y = 0
Pode verificar-se que, para G subálgebra-σ de F, se tem que L2 (Ω, G, P) é um
subespaço fechado de L2 (Ω, F, P) e que E[X | Z] é a projecção ortogonal de X ∈
L2 (Ω, F, P) sobre o subespaço L2 (Ω, G, P). Sabe-se, veja-se [2][p. 67], que Z é a
projecção ortogonal de X ∈ L2 (Ω, F, P) sobre L2 (Ω, G, P) se e só se:
∀Y ∈ L2 (Ω, G, P) X − Z, Y = 0 .
Ora, a segunda propriedade que analisámos acima e que está condensada na
fórmula 3.3, permite-nos dizer que:
∀G ∈ G X − E[X | Z], IG = 0 .
Mas, pela linearidade e pela densidade das funções simples em L2 (Ω, G, P) pode
deduzir-se que:
∀Y ∈ L2 (Ω, G, P) X − E[X | Z], Y = 0 ,
pelo que a conclusão anunciada segue.
ESPERANÇA CONDICIONAL
9
Exercicio 6. Mostre directamente que:
X − E[X | Z], E[X | Z] = 0 .
Exercicio 7. Seja A = {A1 , A2 , . . . , Ap }, uma partição de Ω.
(1) Mostre que:
σ(A) = {
Ai : I ⊂ {1, 2, . . . , p}} .
i∈I
(2) Seja X uma variável aleatória σ(A) mensurável. Mostre que X é constante sobre
os conjuntos Ai para i ∈ {1, 2, . . . , p}.
(3) Conclua que para α1 , α2 , . . . , αp ∈ R se tem:
X=
p
αi IAi .
i=1
Exercicio 8. Seja (Ω, F, P) um espaço de probabilidade e Y uma variável aleatória real
e integrável, definida sobre este espaço.
(1) Sendo B = {∅, Ω} determine E[Y |B].
(2) Sendo B ∈ F, tal que 0 < P[B] < 1 e B1 = σ({B}) determine E[Y |B1 ].
(3) Sendo X uma variável aleatória real tomando, P quase certamente, dois valores
x1 ou x2 , determine E[Y |X].
(4) Seja X uma variável aleatória tomando, P quase certamente, um número finito de
valores x1 , . . . , xn tal que para i = 1, . . . , n se tenha que P[X = xi ] = 0. Determine
E[Y |X].
(5) Suponha que a variável aleatória X toma, quase certamente, os seus valores num
conjunto numerável {xn : n ∈ N} e ainda que
∀n ∈ N P[X = xn ] = 0 .
Determine E[Y |X].
3.2. O caso geral. As duas primeiras propriedades que pudémos observar, acima, no
caso de duas variáveis aleatórias tomando um número finito de valores foram usadas por
10
ESPERANÇA CONDICIONAL
Kolmogorov1 para definir em condições muito gerais a noção de esperança condicional.
A terceira propriedade sugere a demonstração do resultado fazendo apelo à estrutura
geométrica de espaço de Hilbert das variáveis aleatórias de quadrado integrável.
Teorema 3.2 (Kolmogorov 1933). Seja (Ω, F, P) um espaço de probabilidade, X uma
variável aleatória integrável e G uma sub-sigma-álgebra de F. Então:
(1) Existe então uma variável aleatória Y tal que:
(a) Y é integrável,
(b) Y é mensurável relativamente a G,
(3.4)
(c) Y verifica a seguinte propriedade:
Y dP =
∀G ∈ G
G
XdP .
G
(2) Se Y e Ỹ forem duas variáveis aleatórias verificando as três propriedades da alı́nea
1 acima, então
Y = Ỹ P q.c. .
Em consequência do ponto 1 do teorema de Kolmogorov podemos definir a noção de
esperança condicional no caso geral.
Definição 3.3. Nas condições do teorema de Kolmogorov acima qualquer variável aleatória
que verifique as propriedades do ponto 1 denomina-se uma versão da esperança condicional de X dada G e representa-se por:
E[X | G] .
Demonstração. A prova da existência para uma dada variável aleatória X em L2 decorre
do teorema que garante a melhor aproximação para ”subespaços” fechados de L2 . Com
efeito, como se verifica que G ⊂ F temos L2 (Ω, G, P) ⊂ L2 (Ω, F, P) podendo mesmo
afirmar que, com as reservas feitas quanto à definição da adição nos espaços de funções
1Andrei
Nikolaevich Kolmogorov, matemático russo (1903–1987) fundamentou a teoria das probabili-
dades axiomatizando-a no quadro da teoria da medida. Segundo Hoffman-Jorgensen [7][vol. I, p. xxxvi] a
obra datada de 1933, onde expõe esta fundamentação, foi recebida pelos probabilistas seus contemporâneos
quase com euforia. Esta obra foi posteriormente traduzida para a lı́ngua inglesa (veja-se [8]).
ESPERANÇA CONDICIONAL
11
integráveis, L2 (Ω, G, P) é um subespaço vectorial de L2 (Ω, F, P). Em consequência, para
qualquer elemento X de L2 (Ω, F, P) existe Y no espaço L2 (Ω, G, P) tal que:
∀Z ∈ L2 (Ω, G, P) X − Y ⊥ Z .
Como para G ∈ G se tem que IG ∈ L2 (Ω, G, P) temos:
∀G ∈ G
< X − Y, IG >= 0
e como as variáveis X and Y são integráveis temos, de forma equivalente,
XdP =
Y dP .
∀G ∈ G
G
G
Observando que, por ser Y ∈ L (Ω, G, P) se tem que Y é G mensurável e é integrável
2
temos, finalmente, que Y é uma versão da esperança condicional de X dada G. Para a
demonstração da unicidade e da existência no caso geral pode o leitor referir-se à obra [2][p.
86].
Exercicio 9. Seja (Ω, F, P) um espaço de probabilidade, e Y uma variável aleatória
definida sobre este espaço tomando valores em Rm . Seja agora T uma outra variável
aleatória sobre o mesmo espaço e tomando valores em Rp . Mostre que se Y for mensurável
relativamente à sigma-álgebra σ(T ) então existe uma aplicação φ de Rp em Rm tal que:
Y = φ(T ) .
Exercicio 10. Seja (Ω, F, P) um espaço de probabilidade, e X uma variável aleatória
definida sobre este espaço tomando valores em Rm . Seja agora T uma outra variável
aleatória sobre o mesmo espaço e tomando valores em Rp . Define-se a esperança condicional de X dado que T = t como qualquer função φ mensurável de Rp em R tal que:
p
∀B ∈ B(R )
φ(t)dPT (t) =
XdP .
B
T −1 (B)
onde PT é a lei de T .
(1) Mostre que a esperança condicional de X dado que T = t existe se X for integrável.
(2) Mostre que se Y e Ỹ forem duas esperanças condicionais de X dado que T = t
então:
Y = Ỹ P q.c. .
12
ESPERANÇA CONDICIONAL
(3) Mostre que se verifica:
E[X | T ] = φ(T ) se φ(t) = E[X | T = t] .
3.3. Como calcular esperanças condicionais. Para a determinação das esperanças
condicionais num dado caso especı́fico podem usar-se como métodos, entre outros, os
seguintes:
• O recurso à definição evocada na secção 3.1 para o caso em que as variáveis
aleatórias são discretas, isto é tomam um número finito ou infinito numerável
de valores.
• O recurso às densidades das leis das variáveis aleatórias em presença.
• O recurso às propriedades operatórias das esperanças condicionais.
Vamos estudar em detalhe o método evocado no segundo ponto da lista anterior enquanto que o terceiro método referido será desenvolvido na secção 3.4. Relembremos que
se X e Z forem variáveis aleatórias admitindo uma lei conjunta com densidade dada pela
função de duas variáveis fX,Z (x, z) então X (respectivamente Z) admite como densidade
fX (respectivamente fZ ) dada por:
fX (x) =
fX,Z (x, z)dz respectivamente fZ (z) =
fX,Z (x, z)dx .
R
R
Observe-se ainda que se, por exemplo, for fX (x0 ) = 0 então, dado que fX,Z é positiva, se
tem que fX,Z (x0 , z) = 0 quase por toda a parte relativamente à variável z e à medida de
Lebesgue em R.
Teorema 3.4. Sejam X e Z, variáveis aleatórias admitindo uma lei conjunta com densidade dada pela função de duas variáveis fX,Z (x, z). Seja h uma função Borel mensurável
tal que:
E[|h(X)|] =
R
|h(X)|fX (x)dx < +∞ ,
onde fX (x) é a densidade da lei marginal da variável X. Então se for g a função de
variável real definida por:
g(z) :=
h(x)
R
fX,Z (x, z)
I{fZ =0} dx ,
fZ (z)
tem-se que g(Z) é uma versão de E[h(X) | σ(Z)].
ESPERANÇA CONDICIONAL
13
Demonstração. Pelas propriedades de definição da esperança condicional enunciadas no
teorema de Kolmogorov e dado que por definição se tem que:
σ(Z) := Z −1 (B(R)) := {Z −1 (B) : B ∈ B(R)} ,
para que seja válida a condição do teorema temos que verificar que:
g(Z)dP =
h(X)dP .
∀B ∈ B(R)
Z −1 (B)
Z −1 (B)
Atendendo a que IZ −1 (B) ≡ IB ◦ Z, é equivalemte verificar que:
g(Z) (IB ◦ Z) dP =
h(X) (IB ◦ Z) dP .
∀B ∈ B(R)
Z −1 (B)
Ω
Dado que, por hipótese, as leis das variáveis aleatórias são-nos dadas pelas respectivas
densidades a igualdade entre os integrais pode representar-se de forma equivalente por:
g(z) IB (z) fZ (z)dz =
h(x) IB (z)fX,Z (x, z) dxdz .
∀B ∈ B(R)
R
R
R
Finalmente, observando que se para um dado z0 se tiver fZ (z0 ) = 0 então também para
todo o x se verifica que fX,Z (x, z0 ) = 0 salvo num conjunto de medida de Lebesgue nula,
podemos usar no integral, sem lhe alterar o valor, a seguinte igualdade:
fX,Z (x, z) =
fX,Z (x, z)
I{fZ =0} fZ (z) ,
fZ (z)
Em consequência, podemos representar a igualdade de integrais acima pela igualdade
seguinte:
∀B ∈ B(R)
fZ (z)g(z)dz =
B
fZ (z)
B
fX,Z (x, z)
h(x)
I{fZ =0} dx
fZ (z)
R
dz ,
o que mostra que a representação para a função g, formulada na hipótese do teorema, é
suficiente para garantir o resultado anunciado.
Exercicio 11. Sejam X e Y variáveis aleatórias independentes com distribuições de
Poisson de parâmetros λ e µ, respectivamente.
(1) Verifique que X + Y segue uma distribuição de Poisson de parâmetro λ + µ.
(2) Calcule a distribuição de X condicionada por Z = X + Y .
(3) Calcule E(X|Z).
14
ESPERANÇA CONDICIONAL
Exercicio 12. Consideremos um vector aleatório (X, Y ) cuja distribuição é dada pelo
quadro seguinte:
Y
-1
-1
X
0.1
0 0.15
0
1
2
0.15
0
0.1
0
1 0.05 0.05
0.1 0.2
0
0.1
Calcule a distribuição de Y condicionada por X = n, n = −1, 0, 1, E(Y |X) e E(Y ).
Exercicio 13. Seja (X, Y ) um vector aleatório com densidade fX,Y (x, y). Mostre que se
definirmos fY (y) por:
fY (y) :=
fX,Y (x, y) dx
R
então a variável aleatória admitindo como densidade:
fX|Y (x|y) =
fX,Y (x, y)
I{fY =0} (y) ,
fY (y)
é uma versão da esperança condicional de X dado Y = y.
Exercicio 14. Seja (X, Y ) um vector aleatório com densidade
f (x, y) =
2
I[0,+∞[×[0,+∞[ (x, y) ,
(1 + x + y)3
Calcule E(X|Y ).
3.4. Propriedades operatórias das esperanças condicionais. Nesta secção apresentamos uma lista das principais propriedades operatórias da noção de esperança condicional
que tal como já referimos são de grande utilidade no cálculo esplícito. Genericamente denotamos por X uma variável aleatória integrável e por G uma sub-sigma-álgebra de F.
Propriedade 1. Se Y for uma versão de E[X | G] temos que E[Y ] = E[X] o que podemos
representar por:
E [E[X | G]] = E[X] .
ESPERANÇA CONDICIONAL
15
Demonstração. Repare-se que pela definição temos que
E[X|G]dP =
XdP, G ∈ G,
G
G
em particular como Ω ∈ G vem
E[X|G]dP =
E[E[X|G]] =
XdP = E[X].
Ω
Ω
Propriedade 2. Se X for G mensurável então X é uma versão de E[X | G], o que podemos
representar por
E[X | G] = X .
Demonstração. Como para Y = X, temos que Y é integrável, e como
XdP
∀G ∈ G, Y dP =
G
G
então se X fôr mensurável relativamente a G vem que Y é mensurável relativamente a G e
portanto Y verifica as três condições para que seja uma versão da esperança condicional
de X dado G.
Propriedade 3. Seja Y1 (respectivamente Y2 ) uma versão de E[X1 | G] (respectivamente
E[X2 | G]). Então, para λ e µ números reais, temos que λY1 + µY2 é uma versão de
E[λX1 + µX2 | G], o que podemos representar por:
E[λX1 + µX2 | G] = λE[X1 | G] + µE[X2 | G] .
Demonstração. Temos que ∀G ∈ G,
λE[X1 | G] + µE[X2 | G]dP = λ E[X1 | G]dP + µ E[X2 | G]dP =
G
G
X1 dP + µ
λ
G
G
X2 dP =
G
(λX1 + µX2 )dP,
G
o que permite concluir que λE[X1 | G] + µE[X2 | G] é uma versão da esperança condicional
de λX1 + µX2 dado G.
16
ESPERANÇA CONDICIONAL
Propriedade 4. Se X for uma variável aleatória não negativa (isto é X ≥ 0) então
qualquer versão da esperança condicional de X dada G, é não negativa isto é, com o
abuso de notação convencional:
E[X | G] ≥ 0, P − q.c. .
Demonstração. Façamos ∀n ≥ 1, An = {E[X | G] ≤ − n1 }. Então temos que An ∈ G e se
X ≥ 0 vem
1
E[X | G]dP ≤ − P[An ],
n
An
An
o que obriga a que P[An ] = 0, n ≥ 1. Como
0≤
XdP =
{E[X | G] < 0} =
∞
An ,
n=1
vem que
P[{E[X | G] < 0}] = 0,
o que prova o pretendido
Propriedade 5 (Convergência Monótona). Seja (Xn )n∈N uma sucessão de variáveis aleatórias
não negativas e crescente, quase certamente, para uma outra variável aleatória X. Então,
se para cada n ∈ N se tiver que Yn é uma versão da esperança condicional de Xn dada G e,
se Y for uma versão da esperança condicional de X dada G, tem-se que limn→+∞ Yn ↑ Y
ou ainda:
lim E[Xn | G] ↑ E[X | G], P − q.c. .
n→+∞
Demonstração. Como Xn ≥ 0 e Xn+1 − Xn ≥ 0 vem pelas duas últimas propriedades
que Yn ≥ 0 e Yn+1 − Yn ≥ 0 donde 0 ≤ Yn ↑. Fazendo Y = lim Yn vem pelo teorema da
convergência monótona de Lebesgue e pelas hipóteses, que
Y dP =
lim Yn dP = lim Yn dP = lim Xn dP =
lim Xn dP =
XdP,
∀G ∈ G,
G
G
G
G
G
donde pela unicidade vem que E[X | G] = Y = lim Yn = lim E[Xn | G], P − q.c..
G
Propriedade 6 (Lema de Fatou). Seja (Xn )n∈N uma sucessão de variáveis aleatórias não
negativas, então
E[lim inf Xn | G] ≤ lim inf E[Xn | G], P − q.c.
ESPERANÇA CONDICIONAL
17
Demonstração. Fazendo Yk = inf n≥k Xn , ∀k ∈ N teremos que Yk ≤ Xn , ∀n ≥ k vindo pela
propriedade (4) que
∀n ≥ k, E[Yk | G] ≤ E[Xn | G], P − q.c.
o que implica que
E[Yk | G] ≤ inf E[Xn | G], P − q.c.
n≥k
Como a desigualdade anterior é válida para todo o k, teremos ainda
lim E[Yk | G] ≤ lim inf E[Xn | G], P − q.c.
k
k
n≥k
Aplicando agora a propriedade (5) à sucessão Yk virá,
E[lim Yk | G] ≤ lim inf E[Xn | G], P − q.c.,
k
o que termina a prova.
Propriedade 7 (Convergência Dominada). Seja (Xn )n∈N uma sucessão de variáveis
aleatórias convergentes, quase certamente, para uma outra variável aleatória X e tais
que para V v. a. não negativa e integrável se tenha:
∀n ∈ N |Xn | ≤ V P − q.c.
Então, se para cada n ∈ N se tiver que Yn é uma versão da esperança condicional de
Xn dada G e, se Y for uma versão da esperança condicional de X dada G, tem-se que
limn→+∞ Yn = Y ou ainda:
lim E[Xn | G] = E[X | G]
n→+∞
Demonstração. Repare-se que ∀n ∈ N, V − Xn ≥ 0 e V + Xn ≥ 0, donde pela propriedade
anterior vem que
E[lim inf(V − Xn ) | G] ≤ lim inf E[V − Xn | G]
E[lim inf(V + Xn ) | G] ≤ lim inf E[V + Xn | G].
Usando agora o facto de V ser integrável juntamente com a linearidade da esperança
condicional, vem
E[X | G] ≥ lim sup E[Xn | G]
E[X | G] ≤ lim inf E[Xn | G],
18
ESPERANÇA CONDICIONAL
o que permite concluir o pretendido.
Propriedade 8. Se Y for uma variável G mensurável tal que E[|XY |] < +∞ então:
E[X · Y | G] = Y · E[X | G] .
Demonstração. Para a prova deste resultado vamos usar o método geral, e vamos assumir
que X ≥ 0 (o caso geral sai pela linearidade e de X = X + − X − ).
(1) Para Y = IA com A ∈ G vem que
(a)
IA E[X | G]dP =
E[X | G]dP =
XdP =
∀G ∈ G, Y E[X | G]dP =
G
G
G∩A
G∩A
IA XdP =
Y XdP
=
G
G
sendo (a) justificado pelo facto de G ∩ A ∈ G, e concluindo-se pela unicidade que
E[Y X | G] = Y E[X | G].
(2) Para Y = ci IAi , simples não negativa temos pela linearidade e por (1)
IAi E[X | G]dP =
IAi XdP =
Y XdP.
∀G ∈ G, Y E[X | G]dP =
G
G
G
G
(3) Para Y mensurável não negativa sabemos que Y = lim Sn com Sn simples não
negativas, usando o teor. da conv. monótona de Lebesgue e (2), vem
Y E[X | G]dP =
lim Sn E[X | G]dP = lim Sn E[X | G]dP =
G
G
G
= lim Sn XdP =
lim Sn XdP =
Y XdP.
G
G
G
(4) Finalmente no caso em que Y é integrável e E[|Y X|] < ∞, temos que E[(Y X)+ ] <
∞ e E[(Y X)− ] < ∞ e vem por (3) e por X ≥ 0,
+
Y E[X | G]dP =
Y E[X | G]dP −
Y − E[X | G]dP =
G
G
G
+
−
Y XdP −
Y XdP =
Y XdP,
=
G
G
G
o que termina a demonstração.
ESPERANÇA CONDICIONAL
19
Propriedade 9 (Tower law). Se G for uma sub-sigma-álgebra de F tal que G ⊂ G então:
E E[X | G ] | G = E E[X | G] | G = E[X | G ] .
Demonstração. Pela definição temos que
∀G ∈G,
E[X | G ]dP =
G
G
XdP
como G ⊂ G vem que G ∈ G e portanto
XdP =
G
G
E[X | G]dP.
Como temos agora,
∀G ∈G,
G
E[X | G ]dP =
G
E[X | G]dP,
conclui-se que
E[X | G ] = E[E[X | G] | G ].
Para a outra igualdade é análogo.
Propriedade 10. Se X é independente de G então,
E[X | G] = E[X].
Demonstração. Temos que
∀G ∈ G,
XIG dP = E[XIG ]
XdP =
G
Ω
como X é independente de G e IG é G-mensurável vem que X e IG são independentes e
por um resultado já provado temos que
XdP = E[XIG ] = E[X]E[IG ] =
E[X]IG dP =
E[X]dP,
G
Ω
G
o que permite concluir que
E[X | G] = E[X].
20
ESPERANÇA CONDICIONAL
4. Exercı́cios de Revisão
Exercicio 15. Seja (Xn )n∈N∗ uma sucessão de variáveis aleatórias iid tais que:
E[X1 ] = µ , V[X1 ] = ν .
Seja N uma variável aleatória inteira independente das variáveis (Xn )n∈N∗ e tal que:
E[N ] = α , V[N ] = β .
Seja ainda:
∀n ∈ N∗ Sn =
n
Xk .
k=1
(1) Mostre que SN é uma variável aleatória e que:
E[SN |N = n] = E[Sn ] .
(2) Deduza do resultado precedente expressões para E[SN ] e para V[SN ].
Exercicio 16. Seja (Xn )n∈N uma sucessão de variáveis aleatórias independentes integráveis tal que para qualquer n ∈ N se tenha E[Xn ] = µn . Seja para cada n ∈ N
Fn := σ(X1 , . . . , Xn ). Mostre que:
(1) para k > n se tem que:
k
n
k
Xj | Fn =
Xj +
µj e que ,
E
j=1
E
k
j=1
Xj | Fn =
j=1
n
j=n+1
Xj
j=1
k
µj
.
j=n+1
existem e são finitas mostre que:
(2) Supondo que as variâncias V[Xn ] =


2
2
n
k
k
E
(Xj − µj ) | Fn  =
(Xj − µj ) +
σj2 .
σn2 ,
j=1
j=1
j=n+1
Exercicio 17. Seja um vector aleatório bidimensional (X, Y ) com função distribuição
FX,Y (x, y). Seja por definição:
H(x|y) := P[X ≤ x|Y = y] ,
ESPERANÇA CONDICIONAL
21
a função de distribuição condicional de X dada Y . Mostre que:
y
H(x|u)FY (du) ,
FX,Y (x, y) =
−∞
onde FY (y) é a função de distribuição marginal de Y .
Exercicio 18. Seja (X, Y ) um vector aleatório definido sobre Ω = [0, 1] × [0, 1] com
densidade
fX,Y (x, y) = x + y.
Calcule E[X | Y ], e E[X | X + Y ].
Referências
1. [Adam86] M. Adams, V. Guillemin, Measure Theory and Probability, Birkhäuser, 1986.
2. [Will91] D. Williams, Probability with Martingales, Cambridge University Press, 1991.
3. [Capi99] M. Capiński, E. Kopp, Measure, Integral and Probability, Springer, 1999.
4. [Brze99] Z. Brzeźniak, T. Zastawniak, Basic Stochastic Processes, Springer, 1999.
5. [Cott80] M. Cottrell, Ch. Duhamel, V. Genon-Catalot, Exercices de probabilités, Librairie Belin, 1980.
6. [DaCul70] D. Dacunha-Castelle, D. Revuz, M. Schreiber Recueil de problèmes de calcul des probabilités, Masson, Paris, 1970.
7. [Hoff94] J. Hoffmann-J, Probability with a view towards Statistics, Chapman & Hall, 1994.
8. [Kolm50] A. N. Kolmogorov, Foundations of the theory of Probability, Chelsea Books, 1950.