Independência

Transcrição

Independência
Capı́tulo 7
Independência
7.1
Introdução
A noção de independência torna a teoria das probabilidades uma disciplina distinta da
teoria da medida. Trata-se de um conceito com raı́zes intuitivas muito profundas. Por
outro lado, a formalização matemática deste conceito dá origem a resultados surpreendentes talvez, porque a independência é uma hipótese com grande poder de simplificação.
A hipótese de independência das observações é essencial nos procedimentos estatı́sticos
pois permite a utilização de resultados potentes e com hipóteses muito gerais: leis dos
grandes números e teoremas do limite central.
As alternativas à hipótese de independência não são muitas. A estacionaridade permite, em certos casos, a utilização dos teoremas ergódicos. A propriedade de Markov,
em que o futuro e o passado são independentes dado o presente é talvez o substituto
mais útil da independência.
Convêm sublinhar exemplos e contra-exemplos de observações independentes. De
um modo grosseiro as condições metereológicas diárias no inverno português podem ser
caracterizadas, nos dois casos extremos mais interessantes em, bom tempo (sol, temperatura amena, vento fraco ou moderado) ou mau tempo (chuva ou neve, temperaturas
baixas, vento forte). Temos a ideia de que a probabilidade de que amanhã esteja bom
tempo sabendo que hoje está bom tempo é maior que a probabilidade de que amanhã
esteja mau tempo sabendo que hoje está bom tempo. Do mesmo modo, pensamos que
a probabilidade de que amanhã esteja mau tempo sabendo que hoje está mau tempo é
maior que a probabilidade de que amanhã esteja bom tempo sabendo que hoje está mau
tempo. Assim sendo, as condições metereológicas num dia não são independentes das
condições metereológicas do dia anterior.
Um outro exemplo de observação de variáveis aleatórias que tendemos a não considerar como independentes é a do par em que a primeira coordenada nos dá o cociente
de inteligência do pai e a segunda coordenada o cociente de inteligência do filho. Uns
instantes de reflexão mostram que tanto os factores heriditários como os resultantes da
educação contribuem para esta não independência.
Os exemplos de observações independentes são geralmente tirados dos jogos de azar,
209
Capı́tulo 7
moeda ao ar, dados, cartas, etc uma vez que a independência é assimilada a um dos
factores que contribui para o equilı́brio do jogo.
A exposição que apresentamos neste capı́tulo é baseada em [4] embora possamos
completá-la com outras referências, por exemplo, [3] e [2].
7.2
A noção de independência
Seja (Ω, A, P) um espaço de probabilidade.
Definição 49 (Álgebras - σ independentes). Diremos que as álgebras - σ
G1 , G2 , . . . , Gn , . . . sobre Ω são independentes se e só se:
∀n ∈ N ∀i1 , . . . in distintos P[Gi1 ∩ Gi2 ∩ · · · ∩ Gin ] =
n
Y
P[Gik ] ,
k=1
em que convencionamos que, para qualquer i ∈ N se tem Gi ∈ Gi .
Observação 51. A definição de uma sucessão de famı́lias independentes de subconjuntos
num espaço de probabilidade, não necessariamente álgebras - σ, pode fazer-se exactamente do mesmo modo.
Exercı́cio 250. Sejam G e H duas sub-álgebras - σ de A independentes. Mostre que se A ∈ G ∩ H então
P[A] ∈ {0, 1}.
Definição 50 (Variáveis aleatórias independentes). Diremos que as variáveis
aleatórias X1 , X2 , . . . , Xn , . . . são independentes se e só se as álgebras - σ geradas por essas variáveis aleatórias σ(X1 ), σ(X2 ), . . . , σ(Xn ), . . . o forem.
Observação 52. Dado que para cada i ∈ N se tem que:
σ(Xi ) = Xi−1 (B) : B ∈ B(R)
de acordo com a definição 49. as variáveis aleatórias X1 , X2 , . . . , Xn , . . . são independentes se e só se:
" n
#
n
\
Y
−1
∀n ∈ N ∀i1 , . . . in distintos P
Xik (Bik ) =
P[Xi−1
(Bik )] ,
k
k=1
em que Bik ∈ B(R).
210
k=1
Independência
Definição 51 (Acontecimentos independentes). Diremos que os acontecimentos E1 , E2 , . . . , En , . . . pertencentes à álgebra - σ A são independentes se e só se as álgebras - σ geradas por esses acontecimentos
σ({E1 }), σ({E2 }), . . . , σ({En }), . . . o forem.
Observação 53. Dado que para cada i ∈ N se tem que:
σ({Ei }) = {Ei , Eic , ∅, Ω}
de acordo com a definição 51, os acontecimentos E1 , E2 , . . . , En , . . . são independentes
se e só se:
" n
#
n
\
Y
∀n ∈ N ∀i1 , . . . in distintos P
Fik =
P[Fik ] ,
k=1
em que Fik = Eik ou Fik =
k=1
Eick .
Exercı́cio 251. Mostre que os acontecimentos E1 , E2 , . . . , En , . . . são independentes se e só se as
variáveis aleatórias 1IE1 , 1IE2 , . . . , 1IEn , . . . o forem.
Uma questão natural que se pode colocar é a de verificar a independência. A proposiçãao seguinte é importante para esse efeito.
Proposição 55. Sejam G, H duas sub-ágebras - σ da álgebra A. Sejam I, J
sistemas - π tais que σ(I) = G e σ(J) = H. Então G e H são independentes se
e só se I e J o forem a , isto é, se e só se:
∀I ∈ I, ∀J ∈ J P[I ∩ J] = P[I] · P[J]
a
Aqui usamos a observação 51 para definir sistemas - π independentes.
Uma consequência imediata desta proposição é que é possı́vel recuperar a definição
usual de independência de acontecimentos.
Observação 54. Dado que {Ei } é um sistemas - π que gera σ({Ei }) tem-se que os
acontecimentos E1 , E2 , . . . , En , . . . são independentes se e só se:
" n
#
n
\
Y
∀n ∈ N ∀i1 , . . . in distintos P
Eik =
P[Eik ] ,
k=1
k=1
coincidindo com a definição usual de acontecimentos independentes.
Demonstração. Suponha-se que I e J são independentes. Fixe-se I ∈ I e considere-se
para i = 1, 2 a função de conjuntos µiI definida em H que a H ∈ H associa µ1I (H) =
P[I ∩ H] (respectivamente µ2I (H) = P[I] · P[H]). Verifica-se que µ1I e µ2I são medidas
211
Capı́tulo 7
sobre (Ω, H) com a mesma massa total que coincidem sobre J devido a termos suposto
que I e J são independentes, logo coincidem sobre σ(J) = H.
i definida em G
Fixe-se H ∈ H e considere-se para i = 1, 2 a função de conjuntos νH
1
2
que a G ∈ H associa νH (G) = P[G ∩ H] (respectivamente νH (G) = P[G] · P[H]). Verifica1 e ν 2 são medidas sobre (Ω, G) com a mesma massa total que coincidem sobre
se que νG
G
J, porque como µ1I e µ2I coincidem sobre H tem-se que:
∀I ∈ I ∀H ∈ HP[I ∩ H] = P[I] · P[H] .
1 e ν 2 coincidem sobre σ(I) = G para cada H ∈ H, isto é,
Em consequência, νH
H
∀G ∈ G ∀H ∈ HP[G ∩ H] = P[G] · P[H] ,
ou seja, G e H são independentes. Se G e H forem independentes é óbvio que I e J são
independentes, uma vez que I ⊆ G e J ⊆ H.
Exercı́cio 252. Verifique que para i = 1, 2, se tem que µiI são medidas sobre (Ω, H) tais que µ1I (Ω) =
2
1
i
(Ω).
(Ω) = νH
são medidas sobre (Ω, G) tais que νH
µ2I (Ω). Verifique que para i = 1, 2, se tem que νH
Uma aplicação inesperada da noção de independência é a que decorre do resultado
seguinte.
Proposição 56 (Lemas de Borel-Cantelli). Seja E1 , E2 , . . . , En , . . . uma sucessão de acontecimentos em (Ω, A).
1. Em geral vale:
+∞
X
P[En ] < +∞ ⇒ P[lim sup En ] = 0
n→+∞
n=1
2. Se os acontecimentos forem independentes, então:
+∞
X
P[En ] = +∞ ⇒ P[lim sup En ] = 1
n→+∞
n=1
Demonstração. A demonstração do primeiro lema de Borel-Cantelli é simples. Com
efeito tem-se:




+∞
\ [
[
X
P[lim sup En ] =(a) P 
Em  ≤(b) P 
Em  ≤(c)
P [Em ] −−−−−→ 0
n→+∞
n=1 m≥n
com as seguintes justificações:
212
m≥n
m≥n
n→+∞ (d)
Independência
(a) Pela definição de limite superior de uma sucessão de conjuntos.
(b) Pela monotonia da medida P e dado que para cada n ∈ N se tem que:
+∞
\
[
Em ⊆
n=1 m≥n
[
Em .
m≥n
(c) Pela subaditividade da medida P
P
P
(d) Como por hipótese a série +∞
n=1 P[En ] converge o resto
m≥n P [Em ] tende para
zero.
Para demonstrarmos a segunda proposição do lema de Borel-Cantelli vamos verificar
que, sob a condição enunciada, se tem que
c =0.
P lim sup En
n→+∞
Observe-se que pela independência se tem que para n ≤ m ≤ r


\
Y
Y
c 
c
P
Em
=
P [Em
]=
(1 − P [Em ])
n≤m≤r
n≤m≤r
n≤m≤r
Pela continuidade superior da medida, pode passar-se ao limite quando r tende para
+∞ obtendo-se:


\
Y
c 
P
Em
=
(1 − P [Em ])
n≤m
n≤m
mas dado que para x ≥ 0 se tem 1 − x ≤ e−x1 , vem




\
X
c 
P
Em
≤ exp −
P [Em ] −−−−−→ 0
n≤m
n≤m
n→+∞
uma vez que a série é divergente.
7.3
A lei do 0-1 de Kolmogorov
A lei do 0-1 de Kolmogorov é um dos resultados que por si só justificam o estudo
matemático da noção de independência. Mostra que a independência de uma sucessão
de variáveis aleatórias conjugada com uma condição técnica relativa à posibilidade de
descartar o que se passa num qualquer número finito de termos da sucessão, reduz o
comportamento assimptótico da sucessão ao caso não aleatório.
1
O que se pode ver considerando a série alternada que dá e−x .
213
Capı́tulo 7
Para precisarmos a condição técnica evocada, vamos definir a álgebra - σ de cauda
de uma sucessão de variáveis aleatórias.
Definição 52. Seja X1 , X2 , . . . Xn . . . uma sucessão de variáveis aleatórias.
Seja por definição, para cada n ≥ 1:
Tn = σ(Xn , Xn+1 , . . . ) = σ(σ(Xn ), σ(Xn+1 ), . . . )
A álgebra - σ de cauda da sucessão de variáveis aleatórias X1 , X2 , . . . Xn . . . é
por definição:
∞
\
T=
Tn .
n=1
Exercı́cio 253. Mostre que para uma sucessão de variáveis aleatórias X1 , X2 , . . . Xn . . . se tem, para
cada n ≥ 1:
σ(Xn , Xn+1 , . . . ) = σ(σ(Xn ), σ(Xn+1 ), . . . )
Observação 55. Veja o exercı́cio 259 para exemplos de acontecimentos mensuráveis relativamente à álgebra - σ de cauda.
Teorema 37 (Lei do 0-1 de Kolmogorov). Seja (Xn )n∈N uma sucessão de
variáveis aleatórias independentes. Então a álgebra - σ de cauda T é trivial
relativamente a P, isto é:
1. ∀T ∈ T P[T ] = 0 ∨ P[T ] = 1
2. X ∈ mT ⇒ ∃c ∈ R P[X = c] = 1
Demonstração. A demonstração estrutura-se em seis passos conducentes a mostrar que
a álgebra - σ de cauda é independente dela própria o que permitirá concluir como no
enunciado.
Para cada n ≥ 1
Kn := {{Xi ≤ xi } : 1 ≤ i ≤ n , xi ∈ R ∪ {+∞}}
é um sistema - π e verifica-se que σ(Kn ) =: χn = σ(X1 , . . . Xn ).
Tem-se também que para cada n ≥ 1
Ln := {{Xj ≤ xj } : n + 1 ≤ i ≤ n + r , r ∈ N∗ , xi ∈ R ∪ {+∞}}
é um sistema - π e verifica-se que σ(Ln ) =: Tn = σ(Xn+1 , . . . Xn+r . . . ).
214
Independência
Sendo (Xn )n∈N uma sucessão de variáveis aleatórias independentes, tem-se para cada
n ≥ 1 que Kn e Ln são sistemas - π independentes e logo, pela proposição 56, χn e Tn
são álgebras - σ independentes.
Logo, uma vez que T ⊆ Tn , tem-se que χn e T são álgebras - σ independentes.
Mostremos que χ∞ := σ(X1 , . . . Xn , . . . ) e T são independentes. Teêm-se os factos
seguintes
• χn ⊆ χn+1
• K∞ := ∪+∞
n=1 χn é um sistema - π e σ(K∞ ) = χ∞ .
• K∞ e T são independentes, logo mais uma vez pela proposição 56, σ(K∞ ) = χ∞ e
T são independentes.
Como T ⊆ χ∞ , tem-se que T é independente de T pelo que:
T ∈ T ⇒ P[T ] = P[T ∩ T ] = P[T ] · P[T ]
e necessariamente, P[T ] ∈ {0, 1}.
Seja agora X mensurável relativamente á álgebra - σ de cauda. Tem-se então que
para cada x, P[X ≤ x] ∈ {0, 1}. Seja por definição:
c = sup{x : P[X ≤ x] = 0}
É óbvio que se c = −∞ então P[X = −∞] = 1 e que se c = +∞ então P[X = +∞] = 1.
Suponhamos então c ∈ R. Tem-se que:
" +∞ # X
+∞ [
1
1
P[X < c] = P
X ≤c−
≤
P X ≤c−
=0
n
n
n=1
e ainda
n=1
" +∞ #
\
1
P[X ≤ c] = P
X ≤c+
=1,
n
n=1
e logo, P[X = c] = 1 tal como querı́amos.
Observação 56. No capı́tulo sobre o teorema de Fubini veremos como construir sucessões
de variáveis aleatórias indeendentes com leis dadas.
7.4
Exercı́cios complementares
Exercı́cio 254. Mostre que se as famı́lias E e F forem independentes e se G ⊆ E, então as famı́lias G e
F são independentes.
Exercı́cio 255. [1] Sejam X1 , . . . , Xn variáveis aleatórias independentes todas seguindo distribuição de [1]
Bernoulli de parâmetro p. Determinar a distribuição de Y = X1 + · · · + Xn (diz-se que X segue uma
distribuição binomial de parâmetros (n, p)).
215
Capı́tulo 7
Exercı́cio 256. Seja X um conjunto, F uma σ-álgebra de subconjuntos de X, e µ uma medida de [3]
probabilidade em F. Suponha-se que A1 , A2 , ..., An são conjuntos independentes e pertencentes a F.
1. Mostre que Ac1 , A2 , ..., An são independentes.
2. Seja A um dos seguintes conjuntos A1 ∩A2 , Ac1 ∩Ac2 , A1 ∩Ac2 , ac1 ∩A2 . Mostre que A, A3 , A4 , ..., An
são independentes.
3. Seja Fk a mais pequena sub-algebra de F contendo A1 , ..., Ak . Mostre que se A ∈ Fk então
A, Ak+1 , ..., An são independentes.
4. Seja Fk a mais pequena sub-algebra de F contendo A1 , ..., Ak e Fn−k a mais pequena sub-algebra
0
0
de F contendo Ak+1 , ..., An . Mostre que se A ∈ Fk e A ∈ Fn−k então A e A são independentes.
[2]
Exercı́cio 257.
1. Seja Ai o subconjunto do intervalo ]0, 1] correspondente ao acontecimento ”cara
na i-ésima prova” numa sequência de Bernoulli.Mostre que os Ai são independentes.
2. Seja Bi o subconjunto do intervalo ]0, 1] correspondente ao acontecimento ”cara,coroa,cara na
i, i + 1, i + 2 ésimas provas” numa sequência de Bernoulli.Mostre que B1 , B4 , B7 , B10 , ... são
independentes.
Exercı́cio 258 (Independência e independência dois a dois). Considere dois lançamentos independentes de uma moeda equilibrada ao ar. Como modelo dessa observação seja o espaço de probabilidade
({0, 1}2 , P({0, 1}2 ), P) em que P é a probabilidade uniforme sobre {0, 1}2 . Convencionamos que 1 representa cara e 0 coroa. Considere os acontecimentos:
A1 = {Cara ocorre no primeiro lançamento}
A2 = {Cara ocorre no segundo lançamento}
A3 = {Apenas uma cara ocorre nos lançamentos}.
Mostre que para i = 1, 2, 3 se tem P[Ai ] = 1/2, que para i 6= j P[Ai ∩ Aj ] = 1/4 = P[Ai ] · P[Aj ] e que,
finalmente, P[A1 ∩ A2 ∩ A3 ] = 0. Conclua que os acontecimentos são dois a dois independentes mas que
{A1 , A2 , A3 } não é uma famı́lia de acontecimentos independentes.
Exercı́cio 259. Seja (Xn )n∈N uma sucessão de variáveis aleatórias. Mostre que seguintes conjuntos são
mensuráveis relativamente à álgebra - σ de cauda.
1. {ω ∈ Ω : (Xn (ω))n∈N converge }
P
2. {ω ∈ Ω : n≥1 Xn (ω) converge }
P
3. {ω ∈ Ω : (1/k) kn=1 Xn (ω) converge }
Exercı́cio 260. Seja o espaço de probabilidade (R, B(R), PN ) em que B(R) é a álgebra-σ de Borel e
∀B ∈ B(R) PN (B) =
x2
Z
B
e− 2
√ dx .
2π
Considere a sucessão de variáveis aleatórias (Xn )n≥1 em que para n ≥ 1 e x ∈ R se tem Xn (x) = xn /n.
P
1. Mostre que a série ( n≥1 Xn ) converge em A = [−1, 1[ e diverge em Ac .
2. Mostre que PN (A) > 0 e PN (Ac ) > 0 e conclua que (Xn )n≥1 não é uma sucessão de variáveis
aleatórias independentes no espaço de probabilidade (R, B(R), PN ).
216
Independência
Exercı́cio 261. Seja o espaço de Lebesgue. (]0, 1], L(]0, 1]), λ) e para cada x ∈]0, 1], (αn (x))n∈N o
desenvolvimento binário não degenerado de x, isto é, uma sucessão de números de {0, 1} tal que:
1. ∀n ≥ 1∃m ≥ n αn (x) 6= 0
P+∞
n+1
= x.
2.
n=1 αn (x)/2
Mostre que (αn (x))n∈N é uma sucessão de variáveis aleatórias independentes definidas no espaço de
probabilidade (]0, 1], L(]0, 1]), λ).
∗
Exercı́cio 262. Com as notações do exercı́cio anterior mostre que para qualquer sucessão (cn )n≥1 ∈ RN


X
P
(−1)αn cn converge  ∈ {0, 1}
n≥1
Exercı́cio 263. [1] Consideremos Xn , n ≥ 1, variáveis aleatórias independentes e todas com função [3]
de distribuição F e T1 , T2 variáveis aleatórias com valores nos naturais e independentes da sucessão
Xn , n ≥ 1. Definam-se as variáveis aleatórias Y1 (ω) = XT1 (ω) (ω) e Y2 (ω) = XT2 (ω) (ω).
1. Mostre que se F (min(s, t)) = F (s)F (t) para todos os s, t ∈ R, então a distribuição das variáveis
aleatórias Xn , n ≥ 1, é uma medida de Dirac.
2. Mostre que a função de distribuição de Y1 é F e que a função de distribuição de Y2 é também F .
3. Caracterize a distribuição do vector aleatório (Y1 , Y2 ).
4. Suponha que a distribuição comum às variáveis aleatórias Xn , n ≥ 1, não é uma medida de Dirac.
Mostre que Y1 é independente de Y2 se e só se P (T1 = T2 ) = 0.
Bibliografia
[1] Paulo Eduardo de Oliveira. Exercı́cios de Teoria das Probabilidades. Coimbra, 1998–
1999.
[2] Karl R. Stromberg. Probability for analysts. Chapman & Hall Probability Series.
Chapman & Hall, New York, 1994. Lecture notes prepared by Kuppusamy Ravindran.
[3] Daniel W. Stroock. Probability theory, an analytic view. Cambridge University Press,
Cambridge, 1993.
[4] David Williams. Probability with martingales. Cambridge Mathematical Textbooks.
Cambridge University Press, Cambridge, 1991.
217

Documentos relacionados

Independência

Independência n=1 αn (x)/2 Mostre que (αn (x))n∈N é uma sucessão de variáveis aleatórias independentes definidas no espaço de probabilidade (]0, 1], L(]0, 1]), λ). Exercı́cio 9. Com as notações do exercı́...

Leia mais