Teoria da Probabilidade

Transcrição

Teoria da Probabilidade
1.
2.
3.
4.
5.
6.
Experiência Aleatória. Espaço de Resultados. Acontecimentos
Noção de Probabilidade. Frequência Relativa.
Arranjos. Permutações. Combinações.
Axiomas de Probabilidade.
Partição do Espaço. Teorema da Probabilidade Total.
Probabilidade Condicionada. Teorema de Bayes. Acontecimentos
Independentes.
7. Variáveis Aleatórias Discretas. Função de Probabilidade. Função de
Distribuição.
8. Variáveis Aleatórias Contínuas. Função de Densidade de Probabilidade.
Função de Distribuição.
9. Média. Valor esperado. Propriedades do Valor Esperado.
10. Variância. Desvio Padrão. Propriedades da Variância. Covariância.
Coeficiente de Correlação.
11. Critério do Valor Esperado Monetário (V.E.M.).
1. Experiência Aleatória. Espaço de resultados. Acontecimentos.
Se atirarmos uma moeda ao ar, deixando-a cair no chão, ela apresentará
voltada para cima a cara (ou face) ou a coroa.
Por sua vez, atirando um dado sobre uma mesa, quando ele se imobiliza pode
apresentar voltada para cima qualquer uma das faces com 1, 2, … 5, 6 pintas.
Se numa urna tivermos bolas brancas e bolas pretas, ao tirarmos uma, sem
olhar, podemos tirar ou uma bola branca ou uma bola preta.
Num jogo de futebol pode, em princípio, acontecer qualquer resultado
constituído por um par de números inteiros absolutos: 0-0, 1-0, 3-1, 2-5, …
As quatro situações apresentadas são exemplos de experiências aleatórias.
Nelas a um determinado procedimento não corresponde necessariamente um
certo efeito ao contrário do que acontece nas experiências determinísticas.
Nestas a um certo procedimento corresponde sempre um certo efeito.
Nas experiências aleatórias ocorrem certos resultados conforme decorre dos
exemplos dados. O conjunto de todos os resultados possíveis de uma
experiência aleatória designa-se por espaço de resultados associados a essa
experiência. O espaço de resultados costuma-se designar por Ω . Assim, por
exemplo,
-
Lançamento de uma moeda ao ar
Ω = {F, C} ; F − face ; C − coroa,
-
Lançamento de um dado
Ω = {1,2,3,4,5,6},
1
-
Tiragem de uma bola de uma urna com bolas brancas e pretas
Ω = {B, P}
-
Jogo de Futebol
Ω = {(0,0), (1,0), (0,1), (1,1),...}
Nos três primeiros casos temos espaços de resultados finitos. No quarto o
espaço de resultados é infinito. Com os resultados podemos construir
acontecimentos. Ou seja: a um acontecimento interessarão certos resultados.
Um resultado, ele próprio, é também um acontecimento. Designando em geral
os acontecimentos por A temos, por exemplo
-
Lançamento de uma moeda ao ar
A1 = {F } -saída de face,
A2 = {C} -saída de coroa,
A3 = {F , C} -saída de face ou coroa (Também chamado
acontecimento certo),
A4 = { } -não saída nem de face nem de coroa (Também
chamado acontecimento impossível),
-
Lançamento de um dado
A1 = {1,3,5} -saída de face ímpar,
A2 = {2,4,6} -saída de face par,
-
Jogo de Futebol
A1 = {(0,0)(1,1)(2,2)(3,3),...} -empate
A2 = {(1,0), (2,0), (2,1), (3,1),...} -vitória da equipa da casa.
2
2. Noção de Probabilidade. Frequência Relativa.
Dada uma experiência aleatória e o respectivo espaço de resultados podemos a
cada acontecimento associar um número, a probabilidade de A que
designaremos por P( A) .
Essa associação pode ser feita por imposição, levando em conta os
acontecimentos da experiência ou tendo em conta a história da realização da
experiência.
Então, por exemplo,
-
Lançamento de uma moeda ao ar
P (F ) =
1
1
; P (C ) = ou
2
2
P (F ) =
1
2
; P (C ) = ou
3
3
P(F ) = 1 ; P(C ) = 0 .
-
Lançamento de um dado
P (1) = P (2 ) = P (3) = P (4 ) = P (5) = P (6 ) =
P (1) = P (2 ) = P(3) =
1
;
6
1
2
eP (4 ) = P(5) = P (6 ) = ;
9
9
P(1) = P(2) = 0 , P (3) = P (4 ) = P(5) = P(6 ) =
1
4
Poderiam ser valores de probabilidade impostos nos respectivos espaços de
resultados.
Mas, admitindo que a moeda com que realizamos a experiência é “honesta”
1
(condicionalismo da experiência) optaríamos por P (F ) = P(C ) = . No caso de
2
um
dado
“honesto”
consideraríamos
sem
dúvida
1
P (1) = P (2 ) = P (3) = P (4 ) = P (5) = P (6 ) = .
6
Por outro lado, em face de uma certa moeda, de características desconhecidas
poderíamos optar por lançar a moeda ao ar um grande número de vezes, por
exemplo 1 000. Tendo-se observado 425 faces e 575 coroas seria lógico pôr
3
P(F ) = 0,425 e P(C ) = 0,575 . Ou seja: estamos a considerar as frequências
relativas das faces e das coroas como sendo as respectivas probabilidades.
Aliás o conceito de frequência relativa está intimamente ligado com o de
probabilidade, embora não se devam confundir. Por isso tivemos sempre
0 ≤ P( A) ≤ 1 e o somatório das probabilidades no espaço de resultados iguala 1.
Em espaços de resultados equiprováveis
(P(F ) = P(C ) = 1 , P(1) = P(2) = P(3) = P(4) = P(5) = P(6 ) = 1 , por exemplo, a
2
6
probabilidade associada a cada resultado é (# Ω) −1 . Nestes casos a
probabilidade de um acontecimento A é dada por
P ( A) =
n
m
Em que
n -n.º de resultados favoráveis a A
m -n.º de resultados possíveis.
EXEMPLOS:
Seja a experiência do lançamento de um dado. Suponhamos que ele é “honesto”
e portanto, P(1) = P(2) = P(3) = P(4) = P(5) = P(6) . Então
P (sair uma face par) = p ({2,4,6}) = P ({2}) + P({4}) + P ({6}) =
Ou P (sair uma face par) =
P (sair
uma
1 1 1 3 1
+ + = =
6 6 6 6 2
3 1
= .
6 2
face
com um
1 1 1
= P({1,2}) = P ({1}) + P ({2}) = + = .
6 6 3
número
inferior
Ou P (sair uma face com um número inferior ou igual a 2) =
Ainda
com
a
P (4 ) = P (5) = P (6 ) =
mesma
2
,
9
experiência
mas
ou
igual
2 1
= .
6 3
P (1) = P (2 ) = P (3) =
a
2)
1
9
e
4
P (sair uma face par) = P ({2}) + P ({4}) + P({6}) =
1 2 2 5
+ + = e
9 9 9 9
P (sair uma face com um número inferior ou igual 2) = P ({1}) + P ({2}) =
1 1 2
+ = .
9 9 9
3. Arranjos. Permutação. Combinações.
n
é necessário “contar” n e m . Para isso
m
precisamos das noções de Arranjos. Permutações e Combinações dos
elementos de um conjunto. Comecemos por recordar que n!= n(n − 1)(n − 2)...2.1
com n inteiro (0!= 1) .
Seja então um conjunto com n elementos:
Para usar a fórmula P ( A) =
-
Chamaremos permutações dos n elementos desse conjunto às
diferentes maneiras como os podemos ordenar. Designando-as por
Pn temos
Pn = n!
Aos grupos de p elementos do conjunto que podemos escolher chamamos
combinações de n p a p : C pn e
C pn =
n!
p!(n − p )!
Aos grupos de p elementos do conjunto que podemos escolher, mas
considerando a ordenação dentro de cada grupo de p elementos. Chamamos
arranjos de n
p
a p : A pn e
A pn =
n!
(n − p )!
5
EXEMPLOS:
Seja A = {1,2,3}
-
As permutações são
(1,2,3)
(1,3,2)
(2,1,3)
(2,3,1)
(3,1,2)
(3,2,1)
Em número de 3!= 6 .
As combinações dos 3 elementos 2 a 2 são (1,2) , (1,3) e (2,3) em número de
3!
6
C 23 =
= = 3.
2!(3 − 2 ) 2
As combinações dos 3 elementos 2 a 2 são
(1,2), (2,1), (1,3), (3,1), (2,3), (3,2) : em número de
A23 =
3!
= 3!= 6 .
(3 − 2)!
É imediato notar que
C =
n
p
A pn
Pp
e prova-se facilmente que
C pn = C nn− p
EXEMPLOS:
Seja uma urna com 3 bolas brancas e 4 pretas. Suponhamos que tiramos 3
bolas da urna sem reposição.
6
3 4
P (saírem em 2 brancas e 1 preta) =
3
2
4
1
2 1
C C
=
.
7
7
C3
3
3 4
P (saírem 3 pretas) =
0 3
.
7
3
3 4
P (saírem 3 brancas) =
3 0
.
7
3
3 4
P (sair 1 branca e 2 pretas) =
1
2
7
.
3
Suponhamos que jogamos no totoloto com 1 aposta.
6 43
P (ganhar o 1.º prémio) =
6 0
49
=
6
6 1 42
6 1 0
P (ganhar o 2.º prémio) =
49
1
6!43!
6 .5 .4 .3 .2 .
=
=
≅ 7.15 × 10 −8
48
49
49! 49.12
.47.46.345.44
22
6
6!
6
= 5!1! =
≅ 4.29 × 10 −7
49
49
6
6 1
P (ganhar o 3.º prémio) =
6
42
5 0 1
49
6
6
=
6 × 42
≅ 1.80 × 10 −5 .
49
6
7
4. Axiomas de Probabilidade
A teoria das probabilidades é uma teoria matemática com coerência interna.
Pode portanto ser desenvolvida independentemente da realidade embora o
objectivo do modelo assim construído seja a sua aplicação a casos práticos.
Vamos ver de modo ligeiro como isto se processa.
Começaremos por nos situarmos no âmbito da teoria dos conjuntos. Temos um
Universo, o espaço de resultados, e conjuntos que são os Acontecimentos (que,
como vimos, são conjuntos de resultados). O Universo, ele próprio, é o
acontecimento certo e o conjunto vazio é o acontecimento impossível.
Há que garantir que os acontecimentos a considerar, através de operações de
complementação, intersecção e união geram ainda acontecimentos no espaço
de resultados que estamos a considerar isto é: que constituem o que se chama
uma σ -Álgebra. Recordemos de forma simples essas operações:
- Complementação
A A (complementar de A) interessam todos os resultados não considerados em
A,
- Intersecção
A A ∩ B (intersecção de A e de B) interessam todos os resultados comuns a A e
a B,
8
- União
A A ∪ B (união de A e de B) interessam todos os resultados que interessam a A,
a B ou a ambos.
De acordo com o que vimos em 1, 2 e 3 não é difícil aceitar os seguintes
axiomas de probabilidade
1. P( A) ≥ 0,
2. P(Ω ) = 1,
3. P ( A1 ∪ A2 ∪ ... ∪ An ) = P( A1 ) + P ( A2 ) + ... + P( An )
A1 , A2 ,... An sejam disjuntos 2 a 2.
Desde
que
Note-se que
- Se A1 ∩ A2 = φ
incompatíveis,
(acontecimentos disjuntos) também se diz que são
- Como é obvio A ∪ A = Ω e A ∩ A = φ . Então
()
P A = 1 − P ( A)
E
P ( A) ≤ 1
- Se A e B forem Acontecimentos
incompatíveis)
quaisquer (não necessariamente
P ( A ∪ B ) = P ( A ) + P (B ) − P ( A ∩ B )
9
Obviamente, se A e B forem incompatíveis,
P ( A ∪ B ) = P ( A) + P ( B )
- P(φ ) = 1 − P(Ω ) = 0 .
EXEMPLO:
Numa povoação todos os habitantes consomem ou o produto A ou o produto B.
sabe-se que 60% dos habitantes consomem o produto A e que 70% consomem
o produto B. Façamos
A – consumo do produto A
B – consumo do produto B
E, como é evidente, P( A) = P (um habitante consumir o produto A) = 0,6 e
P(B ) = 0,7 .
Podemos calcular por exemplo:
()
P A = 1 − P ( A) = 0,4
()
P B = 1 − P (B ) = 0,3
Como P( A ∪ B ) = P( A) + P(B ) − P( A ∩ B ) donde concluir-se que
P( A ∩ B ) = P( A) + P(B ) − P( A ∪ B ) = 0,6 + 0,7 − 1 = 0,3 . Visto que como todos os
habitantes consomem ou A ou B , P( A ∩ B ) = 1 . Assim 30% dos habitantes
consomem simultaneamente A e B . P( A / B ) = P( A) − P( A ∩ B ) = 0,6 − 0,3 = 0,3
A \ B -consumidores de A que não consomem B :
P(B \ A) = P(B ) − P( A ∩ B ) = 0,7 − 0,3 = 0,4 .
10
Em suma temos
5. Partição do Espaço. Teorema da Probabilidade Total.
Diz-se que uma colecção de acontecimentos {A1 , A2 ,... An } constitui uma partição
do espaço de probabilidade se:
1 - A1 ∪ A2 ∪ ... ∪ An = Ω ,
2 - Ai ∩ A j = φ , i ≠ j .
Por exemplo:
Como é óbvio A e A constituem uma partição do espaço de probabilidade.
Seja então um espaço de probabilidade Ω e uma sua partição {A1 , A2 ,... An } .
Dado um acontecimento qualquer B tem-se, como é evidente, que
P (B ) = P (B ∩ A1 ) + P (B ∩ A2 ) + ... + P (B ∩ An )
11
(Teorema da probabilidade total). Graficamente
6. Probabilidade Condicionada. Teorema de Bayes. Acontecimentos
Independentes.
A probabilidade de A condicionado por B designa-se por P( A B ) e define-se
pela expressão
P(A B ) =
P( A ∩ B )
.
P (B )
Tudo se passa como se o Universo passasse a ser B (Como é evidente
P(B B ) = 1 ). Portanto só interessa a parte de A contida em B .
As probabilidades condicionadas respeitam os axiomas da probabilidade como
facilmente se verifica:
- P(A B ) ≥ 0
- P(Ω B ) = 1
- P( A1 ∪ A2 ∪ ... ∪ An B ) = P( A1 B ) + P( A2 B ) + ... + P( An B ) ,
Desde
que
A1 , A2 ,... An sejam disjuntos dois a dois.
Da definição de probabilidade condicionada resulta que
P( A ∩ B ) = P( A B )P(B ) .
P(B ∩ A)
⇔ P( A ∩ B ) = P (B A)P ( A) obtém-se
P ( A)
P( A B )P(B ) = P(B A)P( A) e finalmente,
Como também se tem P (B A) =
12
P(A B ) =
P (B A)P ( A)
P (B )
Que é o Teorema de Bayes (note-se que permite relacionar condicionamentos
“contrários”).
Se P( A B ) = P( A) A e B dizem-se independentes. Isso é equivalente a ter-se
P( A ∩ B ) = P( A)P(B )
EXEMPLOS:
Dos habitantes de um certo país sabe-se que 1% dos integrantes da classe alta
vota em partidos de esquerda, acontecendo o mesmo com 30% dos da classe
média e 80% dos da classe baixa. A classificação em classes alta, média e
baixa é estabelecida em função rendimentos e sabe-se que 10% da população
está na classe alta, 50% na classe média e 40% na classe baixa.
Calcule:
a) A percentagem de votos na esquerda.
b) A probabilidade de um habitante que votou na esquerda ser da
classe média.
c) A probabilidade de um habitante que não votou na esquerda
ser da classe alta.
RESOLUÇÃO:
A – Pertencer à classe alta
M – Pertencer à classe média
B – Pertencer à classe baixa
{A, M , B} : constituem uma partição do espaço de probabilidade.
P( A) = 0,1 ; P(M ) = 0,5 ; P(B ) = 0,4 .
E -votar na esquerda
P(E A) = 0,01
P(E M ) = 0,30
P(E B ) = 0,80
13
a) P(E ) = P(E ∩ A) + P(E ∩ M ) + P(E ∩ B ) : pelo Teorema da probabilidade total.
P(E ) = P(E A)P( A) + P(E M )P(M ) + P(E B )P(B ) : pela definição de probabilidade
condicionada.
Assim P(E ) = 0,01 × 0,1 + 0,30 × 0,5 + 0,8 × 0,4 = 0,471 = 47,1%
b) P (M E ) =
P (M E ) =
P (E M )P(M )
P(E )
: pelo Teorema de Bayes.
0,3 × 0,5
≅ 0,318 = 31,8%
0,471
)0,1 ≅ 0,187 = 18,7% .
( ) P(EPA(E)P)( A) = (1 − 1P−(EPA(E))P) ( A) = (11−−00,01
,471
c) P A E =
Sabe-se que P( A) = 0,3 e P(B ) = 0,2 , Calcule P( A ∪ B ) sabendo que A e B são
independentes
RESOLUÇÃO:
P( A ∪ B ) = P( A) + P(B ) − P( A ∩ B ) = P( A) + P(B ) − P( A)P(B ) = 0,3 + 0,2 − 0,3 × 0,2 =
= 0,5 − 0,06 = 0,44 .
Numa urna há 3 bolas brancas e 4 bolas pretas. Efectuou-se uma tiragem e
repõe-se a bola na urna. Faz-se uma segunda tiragem em seguida. Determine:
a. A probabilidade de tirar uma bola branca da 1.ª vez e uma bola
preta da 2.ª vez.
b. A probabilidade de tirar uma bola branca e uma preta.
RESOLUÇÃO:
A independência está garantida pela reposição (o que não acontece no exemplo
análogo de 3.)
3 4 12
a) P (BP ) = . =
7 7 49
b) P (BP ) + P (PB ) =
3 4 4 3 24
+
=
.
7 7 7 7 49
- Responda à questão anterior mas sendo as tiragens sem reposição.
14
RESOLUÇÃO:
3 4 12
a) P (BP ) = . =
7 7 49
3 4 4 3 24 4
=
= .
b) P (BP ) + P (PB ) = . +
7 6 7 6 42 7
3 4
Também podíamos responder calculando
1 1
3 .4 3 .4 .2 4
=
=
= .
7!
7
7×6 7
2!5!
2
7. Variáveis aleatórias discretas. Função de Probabilidade.
Função de distribuição.
Diremos que, de uma forma intuitiva, uma variável aleatória é um modo de fazer
corresponder probabilidades a números. Esses números são os valores que a
variável aleatória assume. Valores esses que ocorrem com uma determinada
probabilidade.
Uma variável discreta assume valores num conjunto finito ou infinito numerável.
Por exemplo:
- Se atirarmos ao ar uma moeda “honesta” e atribuirmos o valor 1 à face
e o valor 0 à coroa temos a variável aleatória
Valores
0
1
Probabilidades
0.5
0.5
- Numa lotaria com 5000 bilhetes com 1 único prémio de 1000 contos
temos a variável aleatória
Valores
0
1000
Probabilidades
0.9998
0.0002
- No lançamento de 1 dado “honesto” se atribuirmos o valor 1 quando
saem as faces, 1, 2 ou 3, o valor 2 quando saem as faces 4 ou 5 e o valor 3
quando sai face 6 temos a variável aleatória
15
Valores
Probabilidades
1
2
1
3
1
6
1
2
3
Em geral uma variável aleatória discreta é dada pela sua função de
probabilidade. Designando uma variável aleatória por X (sempre por uma letra
maiúscula) a função de probabilidade é dada por pi = P ( X = i ) .
Costuma-se representar por
X =i
P( X = i )
1
P1
2
p2
3
p3
…
…
n −1
p n −1
n
pn
Obviamente,
- 0 ≤ p i ≤ 1, i = 1,2,..., n
-
n
i =1
pi = 1 .
Temos também interesse a função de distribuição:
FX ( x ) = P( X ≤ x ) .
É uma função não decrescente e contínua à direita.
EXEMPLO:
- Seja a variável aleatória X :
Valores
1
2
3
Probabilidade
1
2
1
3
1
6
16
Vista atrás.
A função de probabilidade é
X =i
P( X = i )
1 23
111
236
Graficamente
A função de distribuição é
0, x 1
1
,1 ≤ x 2
2
FX ( x ) =
5
,2 ≤ x 3
6
1, x ≥ 3
17
Graficamente
Note-se que não temos que ter necessariamente 1,2,3,... . Pode ser uma
sucessão i1 , i2 , i3,... qualquer. Algumas variáveis aleatórias discretas:
- Bernoulli de parâmetro p :
P ( X = x ) = p x (1 − p )1− x , x = 0,1
- Binomial de parâmetros N e p
P( X = x ) =
N
x
p x (1 − p ) N − x , x = 0,1,..., N
- Poisson de parâmetro λ :
P( X = x ) = e
−λ
λx
x!
, x = 0,1,2,....
Também podemos ter a distribuição de probabilidade conjunta de duas variáveis
aleatórias:
Pij = P( X = i ∧ Y = j ) .
18
Costuma-se indicar com uma tabela de dupla entrada.
Por exemplo
Y
2
4
1
1
1
2
1
12
1
12
X
3
Assim, P ( X = 1 ∧ Y = 2 ) =
4
1
3
6
1
12
1
1
e P( X = 3 ∧ Y = 4) = .
4
12
Note-se que
Y
2
4
1
1
1
2
1
12
1
12
5
12
X
3
4
1
3
6
1
12
7
12
7
12
3
12
2
12
1
Portanto a função de probabilidade X , também dita função de probabilidade
marginal de X , é
X =i
1
7
12
P( X = i )
2
3
12
3
2
12
E a função de probabilidade marginal de Y é
Y= j
P(Y = j )
2
5
12
4
7
12
19
Também se podem definir, por exemplo, a função da probabilidade de X
condicionada por Y = 2 : X Y = 2 :
(X Y = 2) = i
P((X Y = 2) = i )
1
2
3
1
1
12
5
12
1
12
5
12
5
4
12
Ou por exemplo, a função de probabilidade Y condicionada por X = 3 : Y X = 3 :
(Y X = 3) = j
P(( X Y = 3) = j )
2
4
1
12
2
12
1
12
2
12
Se, ainda, fizermos por exemplo Z = X + Y a sua função de probabilidade é
Z =i
P (Z = i )
3
1
4
4
1
12
5
5
12
6
1
6
Variáveis aleatórias contínuas. Função
probabilidade. Função de distribuição.
8.
7
1
12
de
densidade
de
Uma variável aleatória contínua assume valores num conjunto infinito não
numerável.
Neste caso, a um valor não corresponde probabilidade mas sim densidade de
probabilidade. Só a um intervalo é que corresponde probabilidade.
Portanto se X é uma variável aleatória contínua e f ( x ) a sua função de
densidade de probabilidade tem-se que
- f (x ) ≥ 0 ,
- −+∞
∞ f ( x )dx = 1 ,
E, por exemplo,
20
- P ( X ≤ a ) = P( X a ) = −a∞ f ( x )dx
- P(a ≤ X ≤ b ) = P(a X ≤ b ) = P(a ≤ X < b ) = P(a X b ) =
b
a
f ( x )dx ,
- A sua função da distribuição é, tal como para as variáveis aleatórias discretas
dada por
Fx ( x ) = P ( X ≤ x ) . Portanto, Fx ( x ) = −x∞ f (t )dt
EXEMPLO:
-
Se
X
λ, f (X ) =
Assim, Fx ( x ) =
P(0 x ≤ 1) =
P( x 1) =
∞
1
∞
1
é uma
0, x ≤ 0
variável
aleatória
exponencial
de
parâmetro
λe − λx , x 0
0, x ≤ 0
x
−∞
[
]
x
f (t )dt = 0xλe − λt dt = − e − λt 0 = 1 − e − λx , x 0
λe −λx dx = [− e −λx ]0 = 1 − e −λ .
1
λe −λx dx = [− e −λx ]1 = e −λ .
∞
9. Média. Valor Esperado. Propriedades do Valor Esperado.
Se X for uma variável aleatória discreta o valor esperado de X , ou média de
X , que designaremos por µ ou E [X ] é dado por
µ = E[X ] =
n
ipi
i =1
EXEMPLOS:
-
Para a variável aleatória
21
X =i
1
1
2
P( X = i )
2
1
3
3
1
6
1
1
1
2 5
E [ X ] = 1. + 2. + 3. = 1 + =
2
3
6
3 3
-
Para uma distribuição de Bernoulli
E [X ] = p ,
-
Para uma distribuição Binomial
E [ X ] = Np ,
-
Para uma variável aleatória contínua
µ = E[X ] =
∞
− ∞ xf ( x )dx
EXEMPLO:
Para a variável aleatória expoencial
µ=
1 − λx
−
e
λ
[
]
∞
∞
− λx
− λx ∞
(
)
xf
x
dx
=
xde
dx
=
−
e
x 0 − 0∞ − e − λx dx =
−∞
0
∞
0
=− −
1
λ
=
1
λ
.
E []
. Tem as propriedades seguintes independentemente de X e Y serem
contínuas ou discretas:
E [aX + bY ] = aE[ X ] + bE [Y ]a,b, Constantes
E [K ] = K , K Constante
E [XY ] = E [ X ]E [Y ] Desde que X e Y sejam independentes.
NOTA:
Duas variáveis aleatórias discretas dizem-se independentes se se verificar a
condição
pij = Pi p j
Para quaisquer i e j .
22
Em relação à tabela de função de probabilidade conjunta dada em 7 tem-se, por
exemplo
p 22 = P( X = 2 ∧ Y = 2 ) =
1
e
12
p 2 p 2 = P ( X = 2 )P (Y = 2 ) =
3 5
15
. =
12 12 144
Pelo que X e Y não são independentes
- Duas variáveis aleatórias contínuas dizem-se independentes se
f ( x, y ) = f ( x ) f ( y )
Em que f ( x, y ) é a função de densidade de probabilidade conjunta de X e Y e
f ( x ) e f ( y ) as funções de densidade de probabilidade de X e de Y ,
respectivamente.
EXEMPLOS:
Ainda em relação à tabela de função de probabilidade conjunta de 7.
E [ X ] = 1.
E [Y ] = 2.
7
3
2 19
+ 2. + 3. =
,
12
12
12 12
5
7 38
+ 4. =
12
12 12
E, portanto, E [ X + Y ] = E [ X ] + E [Y ] =
57
12
1
1
5
1
1 9 + 4 + 25 + 12 + 7 57
Mas E [Z ] = 3 + 4 + 5 + 6 + 7. =
=
4
12
12
6
12
12
12
E recorde-se que se fez Z = X + Y .
23
10.
Variância. Desvio Padrão. Propriedades
Covariância. Coeficiente de Correlação.
de
Variância.
Vamos designar a variância de X por Var [X ] ou σ 2 .
-
Se X for discreta
VAR[ X ] =
-
n
2
(i − E[X ])
i =1
pi
Se X for contínua
VAR[ X ] = −∞∞ ( x − E [ X ])2 f ( x )dx
-
Em qualquer caso
[
] [ ]
VAR[ X ] = E ( X − E [ X ])2 = E X 2 − E 2 [ X ]
Em que
a) Se X for discreta
[ ]
E X2 =
∞
i 2 pi
i =1
b) Se X for contínua
[ ]
E X 2 = −∞∞ x 2 f ( x )dx
O desvio padrão de uma variável aleatória é σ (raiz quadrada positiva da
variância)
O coeficiente de variação é dado por
σ
e dá-se, em geral, em percentagem.
µ
EXEMPLOS:
- Em relação à tabela de função de probabilidade conjunta de 7 tem-se
[ ]
E X 2 = 12
7
3
2 37
+ 2 2 + 32
=
. Portanto,
12
12
12 12
24
[ ]
VAR[ X ] = E X 2 − E 2 [X ] =
σX =
83 σ x
83
e
=
≅ 48% ,
12 µ x
19
[ ]
E Y 2 = 22
5
7 132
+ 42
=
= 11
12
12 12
[ ]
132 38 2 140
−
=
12 12 2 144
VAR[Y ] = E Y 2 − E 2 [Y ] =
σY =
37 19 2
83
−
=
12 12 2 144
140 σ y
140
e
=
≅ 31% .
µy
12
38
- Para uma variável aleatória exponencial
[ ]
[
]
∞
E X 2 = 0∞ x 2 λe − λx dx = − e − λx x 2 0 − 0∞ − e − λx 2 xdx = 2 0∞ xe − λx dx =
=
2 ∞
21
2
− λx
dx =
=
.
0 xde
λ
VAR[ X ] =
λλ
2
λ
2
−
12
λ
2
=
λ2
1
λ
2
1 σ
,σ x = e x = 1 .
µx
Propriedades importantes da variância são
- Var [K ] = 0, K constante
- VAR[aX + bY ] = a 2VAR[X ] + b 2VAR[Y ] + 2ab cov[X , Y ]
Em que cov[ X , Y ] = E[ XY ] − E [ X ]E [Y ] ,
é a covariância de X e de Y .
- Em relação à tabela de função de probabilidade conjunta de 7 tem-se
1
1
1
1
1
1 6 + 16 + 4 + 16 + 6 + 12
E [ XY ] = 1.2. + 1.4. + 2.2. + 2.4. + 3.2. + 3.4. =
= 5.
4
3
12
6
12
12
12
25
COV [ X , Y ] = 5 −
19 38
1
=− .
12 12
72
VAR[ X + Y ] = VAR[X ] + VAR[Y ] + 2COV [X , Y ] =
83 140
4
219
.
+
−
=
144 144 144 144
[ ]
1
1
5
1
1 27 + 16 + 125 + 72 + 49 289
Mas E Z 2 = 9 + 16 + 25 + 36 + 49 =
=
4
12
12
6
12
12
12
VAR[z ] =
289 57 2 219
−
=
e, recorde-se, Z = X + Y .
12 12 2 144
Chama-se coeficiente de correlação linear entre X e Y , e designa-se por ρx, y
a quantidade dada por
ρ X ,Y =
COV [X , Y ]
VAR[X ] VAR[Y ]
.
- − 1 ≤ ρ X ,Y ≤ 1 ,
ρ X ,Y : diz-se grande quando o seu valor em módulo é próximo de 1. Neste caso
indica uma correlação linear forte entre X e Y .
Caso contrário essa correlação diz-se fraca,
- Se ρ X ,Y 0, X e Y têm o mesmo sentido de crescimento (quando uma cresce a
outra também cresce).
- Se ρ X ,Y 0 , quando uma cresce e outra decresce,
-
Se X e Y forem independentes COV [ X , Y ] = 0 e, portanto, ρ X ,Y = 0 ,
mas pode ter-se ρ X ,Y = 0 sem que X e Y sejam independentes.
EXEMPLO:
- Em relação à tabela de probabilidade conjunta de 7 tem-se
ρ X ,Y =
−
1
72
83 140
144
144
=−
1 144
2
=−
≅ −1,9% .
72 83.140
83.140
Portanto a correlação entre X e Y é fraca, crescendo uma quando a outra
decresce.
26
11. Critério do Valor Esperado Monetário
Consiste, basicamente, em face de várias opções, escolher a correspondente ao
maior valor monetário, em média.
Certo fabricante vê-se confrontado com a decisão de desenvolver ou não o
produto Y . O custo do projecto de desenvolvimento está orçado em 2.000 u.m.,
sendo 0,75 a probabilidade estimada de êxito, caso em que o fabricante terá de
optar por um nível de produção (e capacidade a instalar) elevado ou por um
moderado. O lucro bruto (isto é, sem consideração do custo de desenvolvimento
do projecto) será, para um nível de produção elevado, de 4.500, 3.400 ou de
2.500 u.m. no caso de a procura final se vir a revelar alta, média ou baixa
respectivamente.
Se optar por um nível de produção moderado, esses valores serão de 3.800,
3.800 e 3.200 u m.
O industrial estima que as probabilidades de a procura final vir a ser alta, média
ou baixa são, respectivamente de 0,3 , 0,5 e 0,2 .
a) Liste as diferentes decisões à disposição do industrial.
b) Qual a mais favorável?
Vamos resolver a questão empregando o critério do valor Esperado Monetário –
“VEM”: Escolher a alternativa que apresenta um maior valor esperado
monetário (um maior ganho/lucro esperado).
O 1.º passo é listar todas as alternativas à disposição do decisor.
Por alternativa entende-se uma sequência de decisões (decisão sequencial) em
que se conjugam elementos no controle do decisor (em que ele tem de optar) e
elementos fora do controle do decisor (acontecimentos aleatórios).
Esta listagem é convenientemente feita com o auxílio de um diagrama árvoreneste contexto, de uma “árvore de decisão”.
No problema dado, a árvore é a seguinte:
27
Estão assim listadas as 8 (ou 9) alternativas (sequências) possíveis.
Ter em atenção que:
1. Um círculo é chamado “nó de acontecimento” – dele partem acontecimentos
aleatórios. (a soma das
probabilidades
de
acontecimentos que partem
de um mesmo nó é igual à
unidade).
2. Um rectângulo é designado “nó de decisão” – dele partem acções/decisões
alternativas
a
serem
tomadas pelo decisor.
3. Um triângulo indica o fim de uma sequência.
Após isto, vamos “encher” a árvore com as informações disponíveis:
1.º - Escrever as probabilidades dos acontecimentos nos correspondentes
ramos. Escrever o resultado final (ganho monetário) de cada sequência no final
desta (junto a ∆ ). Ex. (reproduzindo parte da árvore):
NOTA: O valor de R3 = 2.500 u m obtém-se
Fazendo [Lucro bruto relevante] - [Custo do des. do projecto]
Ou seja
4.500
-
2.000
2.º Calcular, começando pela direita para a esquerda, os valores esperados
monetários (ganho esperado) e inscrever os valores encontrados nos
círculos (nós de ac.) correspondentes.
Transportar para o rectângulo imediatamente à esquerda o valor esperado mais
elevado encontrado e “cortar” os ramos dos valores esperados inferiores. Ex.
(reproduzindo parte da árvore):
28
O valor 1.460 u.m. é o ganho esperado ao optar-se por um nível de produção
elevado.
À partida não se sabe o ganho l de produção elevado. O ganho depende do
nível de procura que se vier a registar. Poder-se-à sim, calcular o ganho
esperado com essa opção adicionando os ganhos para cada nível de procura
ponderados pelas respectivas probabilidades (V.A. discreta!)
E [Ganho c/ produção elevada] = 0,3 × 2.500 + 0,5 × 1.400 + 0,2 × 50 = 1.460
O mesmo se faz para o caso de se optar por um nível de produção moderado.
No caso de se decidir não produzir o produto o valor a considerar é – 2000
(custo do projecto de desenvolvimento)
Recuando na árvore, indo mais para a esquerda...
Vamos supor então que tinha de decidir entre:
-
Não produzir Y ..........................Suportando uma perda de 2.000 u.m.
-
Fixar nível elevado de produção...............no que espera ganhar 1.460
u.m.
-
Fixar nível moderado de produção...........no que espera ganhar 1.680
u.m.
Será lógico que dentre as 3, se decidiria pela 3.ª opção, pois apresenta um
ganho esperado maior.
Assim, “cortar-se-ão” as outras duas e “transportar-se-à” o valor 1.680 u.m. para
o nó de decisão (rectângulo) relevante (o imediatamente anterior)...
Proceder-se-à desta forma até atingir o nó de decisão inicial.
29
Obter-se-à a sequência óptima para o decisor (a que apresenta um maior ganho
esperado), pois todas as outras foram sendo “cortadas”.
Vejamos a árvore com cálculos completos:
A decisão a tomar será portanto, levar por diante o projecto de desenvolvimento
do produto y , a tendo êxito, optar por um nível de produção moderado. O valor
esperado monetário (ganho esperado – “VEM” desta decisão é 760 u m.
NOTAS: 1) Ter em atenção que as probabilidades neste tipo de análise são
frequentemente probabilidades subjectivas.
2) Que o critério usado “VEM” pode não ser relevante para o decisor
e/ou não ser adequado em determinadas situações.
30

Documentos relacionados

Variáveis Aleatórias

Variáveis Aleatórias Ω={DDD, DDC, DCD, CDD, DCC, CDC, CCD, CCC} Porém não interessa saber a ordem das respostas mas sim o número de respostas D, por exemplo. Assim, a cada resultado vamos associar números reais de acor...

Leia mais