Independência

Transcrição

Independência
Independência
FCT/UNL, Processos Estocásticos
MLE
1 Introdução
A noção de independência torna a teoria das probabilidades uma disciplina distinta da
teoria da medida. Trata-se de um conceito com raı́zes intuitivas muito profundas. Por
outro lado, a formalização matemática deste conceito dá origem a resultados surpreendentes talvez, porque a independência é uma hipótese com grande poder de simplificação.
A hipótese de independência das observações é essencial nos procedimentos estatı́sticos
pois permite a utilização de resultados potentes e com hipóteses muito gerais: leis dos
grandes números e teoremas do limite central.
As alternativas à hipótese de independência não são muitas. A estacionaridade permite, em certos casos, a utilização dos teoremas ergódicos. A propriedade de Markov,
em que o futuro e o passado são independentes dado o presente é talvez o substituto
mais útil da independência.
Convêm sublinhar exemplos e contra-exemplos de observações independentes. De
um modo grosseiro as condições metereológicas diárias no inverno português podem ser
caracterizadas, nos dois casos extremos mais interessantes em, bom tempo (sol, temperatura amena, vento fraco ou moderado) ou mau tempo (chuva ou neve, temperaturas
baixas, vento forte). Temos a ideia de que a probabilidade de que amanhã esteja bom
tempo sabendo que hoje está bom tempo é maior que a probabilidade de que amanhã
esteja mau tempo sabendo que hoje está bom tempo. Do mesmo modo, pensamos que
a probabilidade de que amanhã esteja mau tempo sabendo que hoje está mau tempo é
maior que a probabilidade de que amanhã esteja bom tempo sabendo que hoje está mau
tempo. Assim sendo, as condições metereológicas num dia não são independentes das
condições metereológicas do dia anterior.
Um outro exemplo de observação de variáveis aleatórias que tendemos a não considerar como independentes é a do par em que a primeira coordenada nos dá o cociente
de inteligência do pai e a segunda coordenada o cociente de inteligência do filho. Uns
instantes de reflexão mostram que tanto os factores heriditários como os resultantes da
educação contribuem para esta não independência.
Os exemplos de observações independentes são geralmente tirados dos jogos de azar,
moeda ao ar, dados, cartas, etc uma vez que a independência é assimilada a um dos
factores que contribui para o equilı́brio do jogo.
A exposição que apresentamos neste capı́tulo é baseada em [3] embora possamos
completá-la com outras referências, por exemplo, [2] e [1].
1
Capı́tulo I
Independência
Secção: 2
2 A noção de independência
Seja (Ω, A, P) um espaço de probabilidade.
Definição 1 (Álgebras - σ independentes). Diremos que as álgebras - σ
G1 , G2 , . . . , Gn , . . . sobre Ω são independentes se e só se:
∀n ∈ N ∀i1 , . . . in distintos P[Gi1 ∩ Gi2 ∩ · · · ∩ Gin ] =
n
Y
P[Gik ] ,
k=1
em que convencionamos que, para qualquer i ∈ N se tem Gi ∈ Gi .
Observação 1. A definição de uma sucessão de famı́lias independentes de subconjuntos
num espaço de probabilidade, não necessariamente álgebras - σ, pode fazer-se exactamente do mesmo modo.
Exercı́cio 1. Sejam G e H duas sub-álgebras - σ de A independentes. Mostre que se A ∈ G ∩ H então
P[A] ∈ {0, 1}.
Definição 2 (Variáveis aleatórias independentes). Diremos que as variáveis
aleatórias X1 , X2 , . . . , Xn , . . . são independentes se e só se as álgebras - σ geradas por essas variáveis aleatórias σ(X1 ), σ(X2 ), . . . , σ(Xn ), . . . o forem.
Observação 2. Dado que para cada i ∈ N se tem que:
σ(Xi ) = Xi−1 (B) : B ∈ B(R)
de acordo com a definição 1. as variáveis aleatórias X1 , X2 , . . . , Xn , . . . são independentes
se e só se:
" n
#
n
\
Y
−1
∀n ∈ N ∀i1 , . . . in distintos P
Xik (Bik ) =
P[Xi−1
(Bik )] ,
k
k=1
k=1
em que Bik ∈ B(R).
Definição 3 (Acontecimentos independentes). Diremos que os acontecimentos E1 , E2 , . . . , En , . . . pertencentes à álgebra - σ A são independentes se e só se as álgebras - σ geradas por esses acontecimentos
σ({E1 }), σ({E2 }), . . . , σ({En }), . . . o forem.
PE0910
2
8 de Março de 2010
Capı́tulo I
Independência
Secção: 2
Observação 3. Dado que para cada i ∈ N se tem que:
σ({Ei }) = {Ei , Eic , ∅, Ω}
de acordo com a definição 3, os acontecimentos E1 , E2 , . . . , En , . . . são independentes se
e só se:
" n
#
n
\
Y
∀n ∈ N ∀i1 , . . . in distintos P
Fik =
P[Fik ] ,
k=1
em que Fik = Eik ou Fik =
k=1
Eick .
Exercı́cio 2. Mostre que os acontecimentos E1 , E2 , . . . , En , . . . são independentes se e só se as variáveis
aleatórias 1IE1 , 1IE2 , . . . , 1IEn , . . . o forem.
Uma questão natural que se pode colocar é a de verificar a independência. A proposiçãao seguinte é importante para esse efeito.
Proposição 1. Sejam G, H duas sub-ágebras - σ da álgebra A. Sejam I, J
sistemas - π tais que σ(I) = G e σ(J) = H. Então G e H são independentes se
e só se I e J o forem a , isto é, se e só se:
∀I ∈ I, ∀J ∈ J P[I ∩ J] = P[I] · P[J]
a
Aqui usamos a observação 1 para definir sistemas - π independentes.
Uma consequência imediata desta proposição é que é possı́vel recuperar a definição
usual de independência de acontecimentos.
Observação 4. Dado que {Ei } é um sistemas - π que gera σ({Ei }) tem-se que os acontecimentos E1 , E2 , . . . , En , . . . são independentes se e só se:
" n
#
n
\
Y
∀n ∈ N ∀i1 , . . . in distintos P
Eik =
P[Eik ] ,
k=1
k=1
coincidindo com a definição usual de acontecimentos independentes.
Demonstração. Suponha-se que I e J são independentes. Fixe-se I ∈ I e considere-se
para i = 1, 2 a função de conjuntos µiI definida em H que a H ∈ H associa µ1I (H) =
P[I ∩ H] (respectivamente µ2I (H) = P[I] · P[H]). Verifica-se que µ1I e µ2I são medidas
sobre (Ω, H) com a mesma massa total que coincidem sobre J devido a termos suposto
que I e J são independentes, logo coincidem sobre σ(J) = H.
i definida em G
Fixe-se H ∈ H e considere-se para i = 1, 2 a função de conjuntos νH
1 (G) = P[G ∩ H] (respectivamente ν 2 (G) = P[G] · P[H]). Verificaque a G ∈ H associa νH
H
1
2
se que νG e νG são medidas sobre (Ω, G) com a mesma massa total que coincidem sobre
J, porque como µ1I e µ2I coincidem sobre H tem-se que:
∀I ∈ I ∀H ∈ HP[I ∩ H] = P[I] · P[H] .
PE0910
3
8 de Março de 2010
Capı́tulo I
Independência
Secção: 2
1 e ν 2 coincidem sobre σ(I) = G para cada H ∈ H, isto é,
Em consequência, νH
H
∀G ∈ G ∀H ∈ HP[G ∩ H] = P[G] · P[H] ,
ou seja, G e H são independentes. Se G e H forem independentes é óbvio que I e J são
independentes, uma vez que I ⊆ G e J ⊆ H.
Exercı́cio 3. Verifique que para i = 1, 2, se tem que µiI são medidas sobre (Ω, H) tais que µ1I (Ω) = µ2I (Ω).
i
1
2
Verifique que para i = 1, 2, se tem que νH
são medidas sobre (Ω, G) tais que νH
(Ω) = νH
(Ω).
Uma aplicação inesperada da noção de independência é a que decorre do resultado
seguinte.
Proposição 2 (Lemas de Borel-Cantelli). Seja E1 , E2 , . . . , En , . . . uma sucessão de acontecimentos em (Ω, A).
1. Em geral vale:
+∞
X
P[En ] < +∞ ⇒ P[lim sup En ] = 0
n→+∞
n=1
2. Se os acontecimentos forem independentes, então:
+∞
X
P[En ] = +∞ ⇒ P[lim sup En ] = 1
n→+∞
n=1
Demonstração. A demonstração do primeiro lema de Borel-Cantelli é simples. Com
efeito tem-se:




+∞
\ [
[
X
P[lim sup En ] =(a) P 
Em  ≤(b) P 
Em  ≤(c)
P [Em ] −−−−−→ 0
n→+∞
n=1 m≥n
m≥n
n→+∞ (d)
m≥n
com as seguintes justificações:
(a) Pela definição de limite superior de uma sucessão de conjuntos.
(b) Pela monotonia da medida P e dado que para cada n ∈ N se tem que:
+∞
\
[
Em ⊆
n=1 m≥n
[
Em .
m≥n
(c) Pela subaditividade da medida P
PE0910
4
8 de Março de 2010
Capı́tulo I
Independência
(d) Como por hipótese a série
zero.
P+∞
n=1 P[En ]
Secção: 3
converge o resto
P
m≥n P [Em ]
tende para
Para demonstrarmos a segunda proposição do lema de Borel-Cantelli vamos verificar
que, sob a condição enunciada, se tem que
c =0.
P lim sup En
n→+∞
Observe-se que pela independência se tem que para n ≤ m ≤ r


Y
\
Y
c 
c
(1 − P [Em ])
P
Em
P [Em
]=
=
n≤m≤r
n≤m≤r
n≤m≤r
Pela continuidade superior da medida, pode passar-se ao limite quando r tende para
+∞ obtendo-se:


\
Y
c 
P
Em
=
(1 − P [Em ])
n≤m
n≤m
mas dado que para x ≥ 0 se tem 1 − x ≤ e−x1 , vem




\
X
c 
P
Em
≤ exp −
P [Em ] −−−−−→ 0
n≤m
n≤m
n→+∞
uma vez que a série é divergente.
3 A lei do 0-1 de Kolmogorov
A lei do 0-1 de Kolmogorov é um dos resultados que por si só justificam o estudo
matemático da noção de independência. Mostra que a independência de uma sucessão
de variáveis aleatórias conjugada com uma condição técnica relativa à posibilidade de
descartar o que se passa num qualquer número finito de termos da sucessão, reduz o
comportamento assimptótico da sucessão ao caso não aleatório.
Para precisarmos a condição técnica evocada, vamos definir a álgebra - σ de cauda
de uma sucessão de variáveis aleatórias.
Definição 4. Seja X1 , X2 , . . . Xn . . . uma sucessão de variáveis aleatórias. Seja
por definição, para cada n ≥ 1:
Tn = σ(Xn , Xn+1 , . . . ) = σ(σ(Xn ), σ(Xn+1 ), . . . )
A álgebra - σ de cauda da sucessão de variáveis aleatórias X1 , X2 , . . . Xn . . . é
por definição:
∞
\
T=
Tn .
n=1
1
O que se pode ver considerando a série alternada que dá e−x .
PE0910
5
8 de Março de 2010
Capı́tulo I
Independência
Secção: 3
Exercı́cio 4. Mostre que para uma sucessão de variáveis aleatórias X1 , X2 , . . . Xn . . . se tem, para cada
n ≥ 1:
σ(Xn , Xn+1 , . . . ) = σ(σ(Xn ), σ(Xn+1 ), . . . )
Observação 5. Veja o exercı́cio 7 para exemplos de acontecimentos mensuráveis relativamente à álgebra - σ de cauda.
Teorema 1 (Lei do 0-1 de Kolmogorov). Seja (Xn )n∈N uma sucessão de
variáveis aleatórias independentes. Então a álgebra - σ de cauda T é trivial
relativamente a P, isto é:
1. ∀T ∈ T P[T ] = 0 ∨ P[T ] = 1
2. X ∈ mT ⇒ ∃c ∈ R P[X = c] = 1
Demonstração. A demonstração estrutura-se em seis passos conducentes a mostrar que
a álgebra - σ de cauda é independente dela própria o que permitirá concluir como no
enunciado.
Para cada n ≥ 1
Kn := {{Xi ≤ xi } : 1 ≤ i ≤ n , xi ∈ R ∪ {+∞}}
é um sistema - π e verifica-se que σ(Kn ) =: χn = σ(X1 , . . . Xn ).
Tem-se também que para cada n ≥ 1
Ln := {{Xj ≤ xj } : n + 1 ≤ i ≤ n + r , r ∈ N∗ , xi ∈ R ∪ {+∞}}
é um sistema - π e verifica-se que σ(Ln ) =: Tn = σ(Xn+1 , . . . Xn+r . . . ).
Sendo (Xn )n∈N uma sucessão de variáveis aleatórias independentes, tem-se para cada
n ≥ 1 que Kn e Ln são sistemas - π independentes e logo, pela proposição 2, χn e Tn
são álgebras - σ independentes.
Logo, uma vez que T ⊆ Tn , tem-se que χn e T são álgebras - σ independentes.
Mostremos que χ∞ := σ(X1 , . . . Xn , . . . ) e T são independentes. Teêm-se os factos
seguintes
• χn ⊆ χn+1
• K∞ := ∪+∞
n=1 χn é um sistema - π e σ(K∞ ) = χ∞ .
• K∞ e T são independentes, logo mais uma vez pela proposição 2, σ(K∞ ) = χ∞ e
T são independentes.
PE0910
6
8 de Março de 2010
Capı́tulo I
Independência
Secção: 4
Como T ⊆ χ∞ , tem-se que T é independente de T pelo que:
T ∈ T ⇒ P[T ] = P[T ∩ T ] = P[T ] · P[T ]
e necessariamente, P[T ] ∈ {0, 1}.
Seja agora X mensurável relativamente á álgebra - σ de cauda. Tem-se então que
para cada x, P[X ≤ x] ∈ {0, 1}. Seja por definição:
c = sup{x : P[X ≤ x] = 0}
É óbvio que se c = −∞ então P[X = −∞] = 1 e que se c = +∞ então P[X = +∞] = 1.
Suponhamos então c ∈ R. Tem-se que:
" +∞ # X
+∞ [
1
1
≤
=0
P X ≤c−
P[X < c] = P
X ≤c−
n
n
n=1
n=1
e ainda
P[X ≤ c] = P
" +∞ \
n=1
1
X ≤c+
n
#
=1,
e logo, P[X = c] = 1 tal como querı́amos.
Observação 6. No capı́tulo sobre o teorema de Fubini veremos como construir sucessões
de variáveis aleatórias indeendentes com leis dadas.
4 Exercı́cios complementares
Exercı́cio 5. Mostre que se as famı́lias E e F forem independentes e se G ⊆ E, então as famı́lias G e F
são independentes.
Exercı́cio 6 (Independência e independência dois a dois). Considere dois lançamentos independentes de uma moeda equilibrada ao ar. Como modelo dessa observação seja o espaço de probabilidade
({0, 1}2 , P({0, 1}2 ), P) em que P é a probabilidade uniforme sobre {0, 1}2 . Convencionamos que 1 representa cara e 0 coroa. Considere os acontecimentos:
A1 = {Cara ocorre no primeiro lançamento}
A2 = {Cara ocorre no segundo lançamento}
A3 = {Apenas uma cara ocorre nos lançamentos}.
Mostre que para i = 1, 2, 3 se tem P[Ai ] = 1/2, que para i 6= j P[Ai ∩ Aj ] = 1/4 = P[Ai ] · P[Aj ] e que,
finalmente, P[A1 ∩ A2 ∩ A3 ] = 0. Conclua que os acontecimentos são dois a dois independentes mas que
{A1 , A2 , A3 } não é uma famı́lia de acontecimentos independentes.
Exercı́cio 7. Seja (Xn )n∈N uma sucessão de variáveis aleatórias. Mostre que seguintes conjuntos são
mensuráveis relativamente à álgebra - σ de cauda.
1. {ω ∈ Ω : (Xn (ω))n∈N converge }
P
2. {ω ∈ Ω : n≥1 Xn (ω) converge }
P
3. {ω ∈ Ω : (1/k) kn=1 Xn (ω) converge }
PE0910
7
8 de Março de 2010
Capı́tulo I
Independência
Secção: 4
Exercı́cio 8. Seja o espaço de Lebesgue. (]0, 1], L(]0, 1]), λ) e para cada x ∈]0, 1], (αn (x))n∈N o desenvolvimento binário não degenerado de x, isto é, uma sucessão de números de {0, 1} tal que:
1. ∀n ≥ 1∃m ≥ n αn (x) 6= 0
P+∞
n+1
= x.
2.
n=1 αn (x)/2
Mostre que (αn (x))n∈N é uma sucessão de variáveis aleatórias independentes definidas no espaço de
probabilidade (]0, 1], L(]0, 1]), λ).
Exercı́cio 9. Com as notações do exercı́cio anterior mostre que para qualquer sucessão (cn )n≥1 ∈ RN
2
3
X
P4
(−1)αn cn converge 5 ∈ {0, 1}
∗
n≥1
Referências
[1] Karl R. Stromberg. Probability for analysts. Chapman & Hall Probability Series.
Chapman & Hall, New York, 1994. Lecture notes prepared by Kuppusamy Ravindran.
[2] Daniel W. Stroock. Probability theory, an analytic view. Cambridge University Press,
Cambridge, 1993.
[3] David Williams. Probability with martingales. Cambridge Mathematical Textbooks.
Cambridge University Press, Cambridge, 1991.
PE0910
8
8 de Março de 2010

Documentos relacionados

Independência

Independência A noção de independência torna a teoria das probabilidades uma disciplina distinta da teoria da medida. Trata-se de um conceito com raı́zes intuitivas muito profundas. Por outro lado, a formaliz...

Leia mais