Probabilidade e Estatística

Transcrição

Probabilidade e Estatística
Probabilidade e Estatística
Frederico Caeiro
2009/10
Observação:
Estas folhas servem de apoio às aulas de Probabilidades e Estatística. Para uma melhor compreensão dos assuntos abordados, aconselha-se a leitura de alguns dos livros indicados nas referências
bibliográficas.
Conteúdo
1 Introdução à Teoria da Probabilidade
1.1 Espaço de Resultados e Acontecimentos .
1.2 Probabilidade . . . . . . . . . . . . . . .
1.3 Cálculo Combinatório . . . . . . . . . . .
1.4 Probabilidade Condicional e Independência
.
.
.
.
1
1
3
5
6
.
.
.
.
.
.
9
9
10
11
12
14
15
3 Vectores aleatórios
3.1 Par aleatório discreto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2 Par aleatório contínuo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.3 Momentos de vectores aleatórios . . . . . . . . . . . . . . . . . . . . . . . . . .
17
17
19
20
4 Principais Distribuições
4.1 Distribuições discretas . . . . . . . . . .
4.1.1 Distribuição Uniforme . . . . . .
4.1.2 Distribuição de Bernoulli . . . .
4.1.3 Distribuição Binomial . . . . . .
4.1.4 Distribuição Geométrica . . . . .
4.1.5 Distribuição Hipergeométrica . .
4.1.6 Distribuição de Poisson . . . . .
4.2 Distribuições Contínuas . . . . . . . . .
4.2.1 Distribuição Uniforme Contínua .
4.2.2 Distribuição Exponencial . . . .
4.2.3 Distribuição Gama . . . . . . . .
4.2.4 Distribuição Normal . . . . . . .
4.2.5 Distribuição do Qui Quadrado .
4.2.6 Distribuição t de Student . . . .
23
23
23
24
24
26
27
29
31
31
32
34
35
36
37
2 Variáveis aleatórias
2.1 Variáveis aleatórias . . . . . . . . .
2.2 Função de distribuição . . . . . . . .
2.3 Classificação das variáveis aleatórias
2.4 Momentos . . . . . . . . . . . . . .
2.5 Outros parâmetros relevantes . . . .
2.6 Funções de uma variável aleatória .
.
.
.
.
.
.
.
.
.
.
.
.
5 Teorema Limite Central
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
39
i
6 Estimação Pontual
6.1 Alguns conceitos importantes . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.2 Propriedades dos estimadores . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.3 Método dos Momentos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.4 Método da máxima verosimilhança . . . . . . . . . . . . . . . . . . . . . . . . .
6.5 Distribuições por Amostragem . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.5.1 Distribuição por amostragem da média amostral, X . . . . . . . . . . . .
6.5.2 Distribuição por amostragem da diferença de médias amostrais, X 1 − X 2
6.5.3 Distribuição por amostragem da variância amostral, S 2 . . . . . . . . . .
6.5.4 Distribuição por amostragem da proporção, P̂ . . . . . . . . . . . . . . .
41
41
42
44
46
47
47
49
49
49
7 Estimação por Intervalo de Confiança
7.1 Intervalo de Confiança para a média da população, µ . . . . . . . . . . . . . . .
7.1.1 População Normal com variância conhecida . . . . . . . . . . . . . . . .
7.1.2 População Normal com variância desconhecida . . . . . . . . . . . . . .
7.1.3 População não-Normal com variância conhecida e n > 30 . . . . . . . . .
7.1.4 População não-Normal com variância desconhecida e n > 30 . . . . . . .
7.2 Intervalo de Confiança para a variância populacional, σ 2 , e para o desvio padrão
populacional, σ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.3 Intervalo de Confiança para proporção populacional, p . . . . . . . . . . . . . . .
51
52
52
55
56
56
8 Teste de Hipóteses
8.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . .
8.2 Teste de Hipóteses para a média da população . . . . . . .
8.2.1 Teste bilateral . . . . . . . . . . . . . . . . . . . .
8.2.2 Teste unilateral direito . . . . . . . . . . . . . . .
8.2.3 Teste unilateral esquerdo . . . . . . . . . . . . . .
8.3 Teste de Hipóteses para a variância, σ 2 , de uma população
8.4 Teste de Hipóteses para a proporção p de uma população .
8.5 Teste das sequências ascendentes e descendentes . . . . .
8.6 Teste de ajustamento do Qui Quadrado . . . . . . . . . .
63
63
65
66
67
68
69
70
71
72
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
Normal .
. . . . .
. . . . .
. . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
9 Regressão Linear
9.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9.2 Estimadores dos Mínimos Quadrados de β0 e β1 . . . . . . . . . . . . . . . . . .
9.3 Estimação de σ 2 e Qualidade do Ajuste . . . . . . . . . . . . . . . . . . . . . .
9.4 Propriedades dos estimadores dos mínimos quadrados . . . . . . . . . . . . . . .
9.4.1 Distribuição por amostragem de σ̂ 2 . . . . . . . . . . . . . . . . . . . . .
9.4.2 Distribuição por amostragem de β̂0 e β̂1 . . . . . . . . . . . . . . . . . .
9.5 Inferência sobre os parâmetros do Modelo de Regressão . . . . . . . . . . . . . .
9.5.1 Intervalo de Confiança e Teste de Hipóteses para β1 . . . . . . . . . . .
9.5.2 Intervalo de Confiança e Teste de Hipóteses para β0 . . . . . . . . . . .
9.5.3 Intervalo de Confiança e Teste de Hipóteses para σ 2 . . . . . . . . . . .
9.6 Estimação do valor esperado de Y para uma observação x0 da variável controlada
9.7 Previsão do valor da variável resposta Y para um novo valor x0 da variável controlada
58
60
77
77
78
79
79
79
80
81
81
82
83
84
84
10 Exercícios
10.1 Introdução à Teoria da Probabilidade .
10.2 Variáveis aleatórias . . . . . . . . . .
10.3 Vectores Aleatórios . . . . . . . . . .
10.4 Principais distribuições . . . . . . . .
10.5 Teorema Limite Central . . . . . . . .
10.6 Estimação Pontual . . . . . . . . . . .
10.7 Estimação por Intervalo de Confiança
10.8 Teste de Hipóteses . . . . . . . . . .
10.9 Regressão Linear . . . . . . . . . . . .
11 Tabelas
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
85
85
89
93
96
101
102
104
106
109
111
Capítulo 1
Introdução à Teoria da Probabilidade
1.1
Espaço de Resultados e Acontecimentos
Definição 1.1 (Experiência aleatória). Uma experiência aleatória é uma experiência cujo resultado é desconhecido (antes da sua realização), apesar de se conhecerem todos os possíveis
resultados.
Exemplo 1.2 (Experiência aleatória). Considere os seguintes exemplos:
• E1 : Lançamento de uma moeda e observação da face voltada para cima;
• E2 : Lançamento de um dado e observação da face voltada para cima;
• E3 : Tempo de “vida” de uma lâmpada.
Definição 1.3 (Espaço de resultados ou universo). Chamamos espaço de resultados ou universo, e representamos por Ω, ao conjunto de todos os possíveis resultados de uma experiência
aleatória.
Observação: Diz-se que o espaço de resultados, Ω, é discreto se tem um número finito ou infinito
numerável de elementos. Se Ω contém um intervalo (finito ou infinito) de números reais, então
o espaço de resultados é contínuo.
Exemplo 1.4 (Espaço de resultados). Considere novamente as experiências aleatórias do Exemplo 1.2. Temos:
• E1 : Ω = {Cara, Coroa};
• E2 : Ω = {1, 2, 3, 4, 5, 6};
• E3 : Ω = R+ .
1
2
CAPÍTULO 1. INTRODUÇÃO À TEORIA DA PROBABILIDADE
Exemplo 1.5 (Espaço de resultados). Na experiência aleatória que consiste em lançar um dado,
numerado de 1 a 6, e observar a face voltada para cima, Ω = {1, 2, 3, 4, 5, 6}. Se forem lançados
dois dados, o espaço de resultados é,
Ω = {(1, 1), (1, 2), (1, 3), (1, 4), (1, 5), (1, 6), (2, 1), . . . , (6, 5), (6, 6)},
ou seja, Ω = {(i, j) : i = 1, . . . , 6; j = 1, . . . , 6}.
Definição 1.6 (Acontecimento e Acontecimento elementar). Um acontecimento é um subconjunto do espaço de resultados, Ω. Cada acontecimento formado por apenas um ponto amostral
é designado por acontecimento elementar ou simples.
Observação: Ao conjunto ∅ chamamos acontecimento impossível e a Ω acontecimento certo.
Definição 1.7 (Sub-acontecimento). A é sub-acontecimento de B, e escreve-se A ⊂ B, se e
só se a realização de A implica a realização de B.
Observação: Podemos aplicar as operações usuais sobre conjuntos de modo a obter outros
acontecimentos de interesse. As operações mais usuais são:
• A união de dois acontecimentos A e B, e representa-se por A ∪ B;
• A intersecção de dois acontecimentos A e B, e representa-se por A ∩ B;
• O complementar do acontecimento A e representa-se por A;
• A diferença dos acontecimentos A e B e representa-se por A − B (= A ∩ B);
Algumas propriedades importantes:
1. Distributiva: A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C) e A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C);
2. Leis de De Morgan: A ∩ B = A ∪ B e A ∪ B = A ∩ B.
Definição 1.8 (Acontecimentos disjuntos ou mutuamente exclusivos). Dois acontecimentos
A e B dizem-se disjuntos se não têm elementos em comum, ou seja, se A ∩ B = ∅.
3
1.2. PROBABILIDADE
1.2
Probabilidade
Em muitas experiência aleatórias estamos interessados em medir a possibilidade de ocorrer um
determinado acontecimento ocorrer. A probabilidade permite-nos quantificar essa possibilidade.
Definição 1.9 (Definição Clássica ou de Laplace de Probabilidade). Se uma experiência
aleatória tem a si associado um número finito N de resultados, mutuamente exclusivos e igualmente prováveis, então a probabilidade de qualquer acontecimento A, P (A), é dada por:
P (A) =
no de resultados favoráveis a A
NA
=
.
N
no de resultados possíveis
Exemplo 1.10. A probabilidade de sair face ímpar, num lançamento de um dado equilibrado é
P (“Sair face ímpar”) =
3
6
= 21 .
Definição 1.11 (Definição Frequencista de Probabilidade). A probabilidade de um acontecimento A é dada pelo limite da frequência relativa com que se observou A, isto é,
nA
,
n→∞ n
P (A) = lim
onde nA representa o número de observações de A, e n o número de realizações da experiência
nA
.
aleatória. Para valores elevados de n, podemos assumir que P (A) ≈
n
Definição 1.12 (Definição Axiomática de Probabilidade). A Probabilidade é uma função,
que a cada acontecimento A faz corresponder um valor real, P (A), e que verifica as seguintes
condições ou axiomas:
1. P (A) ≥ 0, qualquer que seja o acontecimento A;
2. P (Ω) = 1;
3. Se A e B são acontecimentos disjuntos, P (A ∪ B) = P (A) + P (B).
Esta axiomática não contempla situações com uma infinidade numerável de acontecimentos. É
assim usual substituir o 3o axioma, por:
3. Se A1 , A2 , . . . são acontecimentos disjuntos dois a dois, então P
S∞
i=1 Ai
=
P∞
i=1 P (Ai ).
Proposição 1.13. Sejam A e B dois acontecimentos. Os seguintes resultados são consequência
imediata dos axiomas da definição 1.12:
1. P (∅) = 0;
2. Se A ⊆ B então P (A) ≤ P (B);
4
CAPÍTULO 1. INTRODUÇÃO À TEORIA DA PROBABILIDADE
3. P (Ā) = 1 − P (A);
4. P (A) ∈ [0, 1];
5. P (A − B) = P (A ∩ B) = P (A) − P (A ∩ B);
6. P (A ∪ B) = P (A) + P (B) − P (A ∩ B).
Demonstração.
1. Como ∅ e Ω são acontecimentos disjuntos e P (∅ ∪ Ω) = P (Ω) = 1, resulta pelo 3o axioma
que P (∅ ∪ Ω) = P (∅) + P (Ω), ou seja, P (∅) = 0.
2. Sejam A e B dois acontecimentos tais que A ⊆ B. Então B = B ∩ (A ∪ A) = (B ∩ A) ∪
(B ∩ A) = A ∪ (B ∩ A). Como A e B ∩ A são acontecimentos disjuntos, podemos utilizar
o 3o axioma, resultando,
P (B) = P (A ∪ (B ∩ A)) = P (A) + P (B ∩ A).
Usando o 1o axioma, podemos garantir que P (B∩A) ≥ 0 e consequentemente P (B) ≥ P (A).
3. Como A e A são acontecimentos disjuntos, podemos utilizar o 3o axioma. Assim,
1 = P (Ω) = P (A ∪ A) = P (A) + P (A),
ou seja, P (Ā) = 1 − P (A).
4. Pelo 1o axioma, para qualquer acontecimento A, P (A) ≥ 0. Logo, basta apenas demonstrar
que P (A) ≤ 1. Como A ⊆ Ω, resulta que P (A) ≤ P (Ω) = 1.
5. Como A = (A∩B)∪(A∩B) = (A−B)∪(A∩B), e (A−B) e (A∩B) são acontecimentos
disjuntos, então podemos utilizar o 3o axioma. Assim,
P (A) = P (A − B) + P (A ∩ B)
⇔
P (A − B) = P (A) − P (A ∩ B).
6. Como A ∪ B = (A − B) ∪ (B − A) ∪ (A ∩ B) e (A − B), (B − A) e (A ∩ B) são
acontecimentos disjuntos dois a dois, podemos utilizar o resultado do 3o axioma, obtendo:
P (A ∪ B) = P (A − B) + P (B − A) + P (A ∩ B) =
= P (A) − P (A ∩ B) + P (B) − P (A ∩ B) + P (A ∩ B) =
= P (A) + P (B) − P (A ∩ B).
Observação: O último resultado da Proposição 1.13 pode ser generalizado para a união de n
acontecimentos (n ≥ 2). Assim, dados os acontecimentos Ai , i = 1, . . . , n,
P (∪ni=1 Ai ) =
n
X
i=1
P (Ai )−
X
i6=j
P (Ai ∩ Aj )+
X
i6=j6=k
P (Ai ∩ Aj ∩ Ak )−. . .+(−1)n−1 P (∩ni=1 Ai ) ;
5
1.3. CÁLCULO COMBINATÓRIO
Para n = 3 obtemos o caso particular:
P (A ∪ B ∪ C) = P (A) + P (B) + P (C) − P (A ∩ B) − P (A ∩ C) − P (B ∩ C) + P (A ∩ B ∩ C).
Definição 1.14 (Acontecimentos incompatíveis). Dois acontecimentos A e B dizem-se incompatíveis se P (A ∩ B) = 0.
1.3
Cálculo Combinatório
O cálculo de uma probabilidade, através da definição clássica, depende da contagem do número
de casos favoráveis e do número de casos possíveis. Em muitas situações este cálculo pode não
ser imediato. O cálculo combinatório é uma ferramenta que nos poderá auxiliar em muitas dessas
situações.
Definição 1.15 (Produto Cartesiano). Seja A = {a1 , . . . , an } um conjunto com n elementos e
B = {b1 , . . . , bm } um conjunto com m elementos. Designa-se por produto cartesiano o conjunto
de pares (ai , bj ) em que o primeiro provém de A e o segundo de B e representa-se por A × B. O
número de elementos de A × B é dados por #(A × B) = n × m.
Considere agora que temos n elementos distintos, e pretendemos seleccionar k. De quantas
maneiras distintas é possível seleccionar os k elementos? Como existem várias formas distintas
de escolher os k elementos, a resposta à questão anterior é dada pela seguinte tabela:
Interessa
a ordem?
Há
repetição?
Designação
Sim
Não
Arranjos
Sim
Não
Sim
Não
Arranjos com repetição
Combinações
Não
Sim
Combinações com repetição
Número de maneiras distintas de
escolher os k elementos
nA
nC
k
=
n!
k≤n
(n−k)! ,
n A0 = nk
k
n
n!
k≤
=
k
(n−k)!k! ,
n C 0 = (n+k−1)!
k
(n−1)!k!
k
=
n
Observações:
• “!” representa a função factorial (por convenção 0! = 1);
• No caso particular em que interessa a ordem, não há repetição e estamos a seleccionar todos
os elementos disponíveis (k = n), é mais usual designarmos Permutações de n elementos,
Pn , em vez de n An . É obvio que n An = Pn = n!.
6
CAPÍTULO 1. INTRODUÇÃO À TEORIA DA PROBABILIDADE
1.4
Probabilidade Condicional e Independência
Vamos começar por um exemplo que irá introduzir a noção de probabilidade condicional.
Exemplo 1.16. Uma empresa farmacêutica realizou um ensaio clínico para comparar a eficácia de
um novo medicamento (medicamento experimental). Escolheram-se ao acaso 200 doentes com a
doença que se pretende curar. Metade desses doentes foram tratados com o novo medicamento e
os restantes com um medicamento convencional. Ao fim de 5 dias, os resultados são os seguintes:
Medicamento Experimental E
Medicamento Convencional (E)
Total
Melhorou (M )
69
58
127
Não melhorou (M )
31
42
73
Total
100
100
200
1. Qual a probabilidade, de um doente escolhido ao acaso,
(a) tomar o medicamento experimental?
Resposta: Usando a regra de Laplace, P (E) =
100
200
= 12 .
(b) tomar o medicamento experimental e melhorar?
Resposta: Usando a regra de Laplace, P (E ∩ M ) =
69
200 .
2. Qual a probabilidade de um doente, que melhorou, ter tomado o medicamento experimental?
Resposta:
69
127 .
Observação: A solução da pergunta 2, do exemplo anterior, é igual a
P (E∩M )
P (M ) .
Definição 1.17 (Probabilidade Condicional). Sejam A e B dois acontecimentos. A probabilidade condicional de A dado B é
P (A|B) =
P (A ∩ B)
,
P (B)
se P (B) > 0.
Teorema 1.18 (Teorema da Probabilidade Composta). Sejam A e B dois acontecimentos
tais que P (B) > 0. Então, resulta da definição de Probabilidade Condicional,
P (A ∩ B) = P (A |B ) P (B) .
Observação: Nalguns casos, a probabilidade condicional P (A|B) pode ser igual a P (A), ou seja,
o conhecimento da ocorrência de B não afecta a probabilidade de A ocorrer.
Definição 1.19 (Acontecimentos Independentes). Dois acontecimentos A e B dizem-se independentes se e só se,
P (A ∩ B) = P (A) P (B) .
1.4. PROBABILIDADE CONDICIONAL E INDEPENDÊNCIA
7
Definição 1.20 (Partição do espaço de resultados). Dizemos que {E1 , . . . , En } é uma partição
do espaço de resultados Ω quando
Ei ∩ Ej = ∅ (i 6= j) e
∪ni=1 Ei = Ω.
Teorema 1.21 (Teorema da Probabilidade Total). Seja {E1 , . . . , En } uma partição do espaço
de resultados Ω, com P (Ei ) > 0, ∀i. Dado um qualquer acontecimento A, tem-se,
P (A) = P (A |E1 ) P (E1 ) + . . . + P (A |En ) P (En ) .
Teorema 1.22 (Teorema de Bayes). Seja {E1 , . . . , En } uma partição do espaço de resultados
Ω, com P (Ei ) > 0, ∀i. Dado um qualquer acontecimento A, com P (A) > 0, tem-se
P (A |Ei ) P (Ei )
.
P (Ei |A ) = P
n
P (A |Ei ) P (Ei )
i=1
Demonstração. Aplicando a definição 1.17, de Probabilidade Condicional, depois o Teorema 1.18
da Probabilidade Composta e o Teorema 1.21 da Probabilidade Total,
P (Ei |A ) =
P (Ei ∩ A)
P (A |Ei ) P (Ei )
= P
.
n
P (A)
P (A |Ei ) P (Ei )
i=1
Exemplo 1.23 (Teste de P.E. D - 2007/08). Diga, justificando, se a seguinte afirmação é verdadeira ou falsa:
Três máquinas A, B e C produzem botões, respectivamente, 15%, 25% e 60% da produção total.
As percentagens de botões defeituosos fabricados por estas máquinas são respectivamente 5%, 7%
e 4%. Se ao acaso, da produção total de botões, for encontrado um defeituoso, a probabilidade
de ele ter sido produzido pela máquina B é de cerca de 36%.
Resolução:
Sejam A, B, C e D os seguintes acontecimentos:
A - O Botão é produzido pela máquina A;
B - O Botão é produzido pela máquina B;
C - O Botão é produzido pela máquina C;
D - O Botão tem defeito;
De acordo com o enunciado, temos as seguintes probabilidades: P (A) = 0.15, P (B) = 0.25,
P (C) = 0.6, P (D|A) = 0.05, P (D|B) = 0.07 e P (D|C) = 0.04.
8
CAPÍTULO 1. INTRODUÇÃO À TEORIA DA PROBABILIDADE
Pretende-se determinar P (B|D). Usando o Teorema de Bayes, obtemos:
P (B|D) =
P (D|B)P (B)
175
=
' 36%.
P (D|A)P (A) + P (D|B)P (B) + P (D|C)P (C)
490
Logo a afirmação está correcta, isto é, a probabilidade de um botão defeituoso ter sido produzido
pela máquina B é de cerca de 36%.
Capítulo 2
Variáveis aleatórias
2.1
Variáveis aleatórias
Definição 2.1 (Variável aleatória). Uma variável aleatória (v.a.), X : Ω → R, é uma função real
e finita, tal que a imagem inversa de ] − ∞; x] é um acontecimento, isto é, Ax = X −1 (−∞; x] =
{ω ∈ Ω : X (ω) ≤ x} com x ∈ R é um acontecimento.
Observação: É fácil de verificar que se X é uma variável aleatória e g : R → R uma função,
então Y = g(X) é também uma variável aleatória.
Exemplo 2.2 (Variável aleatória). Considere a experiência aleatória que consiste no lançamento
de 2 moedas equilibradas, e registo da face voltada para cima. O espaço de resultados é
Ω = {(Ca, Ca), (Ca, Co), (Co, Ca), (Co, Co)}.
Podemos, por exemplo, atribuir a cada um dos acontecimentos elementares de Ω, os seguinte
valores:
ω
X(ω)
(Ca,Ca)
2
(Ca,Co)
1
(Co,Ca)
1
(Co,Co)
0
Repare que





∅,
x<0
{(Co,
Co)}
0
≤
x<1
Ax = X −1 ](∞; x]) =
 {(Co, Co), (Ca, Co), (Co, Ca)} 1 ≤ x < 2



Ω
x≥2
Como todas as imagens inversas, X −1 (] − ∞; x]), são acontecimentos de Ω, então de acordo com
a definição 2.1, X é uma variável aleatória.
Observação: Relativamente ao Exemplo 2.2, X é a aplicação que atribui a cada acontecimento
de Ω o número de caras.
9
10
2.2
CAPÍTULO 2. VARIÁVEIS ALEATÓRIAS
Função de distribuição
Definição 2.3 (Função de distribuição). A função de distribuição da v.a. X é:
FX (x) = P (X ≤ x) = P ({ω : X(ω) ≤ x}),
∀x ∈ R.
Exemplo 2.4. Considere novamente o Exemplo 2.2. A função de distribuição desta v.a. é:


0,
x<0




 1, 0 ≤ x < 1
4
FX (x) = P (X ≤ x) =
3



4, 1 ≤ x < 2



1,
x≥2
Observação: Como FX (x) = P (X ≤ x), conclui-se que a função de distribuição existe sempre. Quando não existir mais do que uma v.a., pode-se representar a função de distribuição
simplesmente por F .
Propriedades da função de distribuição:
1.
lim F (x) = 0 e
x→−∞
lim F (x) = 1;
x→+∞
2. F é contínua à direita, isto é, lim F (x) = F (a);
x→a+
3. F é não decrescente, isto é, se x < y, então F (x) ≤ F (y).
Teorema 2.5. Qualquer função F é uma função de distribuição se e só se verificar as três
propriedades anteriores.
Proposição 2.6. Seja X uma v.a. com função de distribuição F . Tem-se:
P (X = x) = P (X ≤ x) − P (X < x) = F (x) − F (x− ),
∀x ∈ R,
onde F (x− ) = lim F (t).
t→x−
Definição 2.7 (Variáveis aleatórias identicamente distribuídas). Duas variáveis aleatórias
X e Y dizem-se identicamente distribuídas, se têm a mesma função de distribuição, isto é, se
FX (x) = FY (x), ∀x ∈ R.
11
2.3. CLASSIFICAÇÃO DAS VARIÁVEIS ALEATÓRIAS
2.3
Classificação das variáveis aleatórias
A função de distribuição não é necessariamente contínua em todos os valores x ∈ R. Podemos
por isso classificar as variáveis aleatórias em função da continuidade da respectiva função de
distribuição. Considere o conjunto de pontos de descontinuidade da função de distribuição F ,
D = {a ∈ R : P (X = a) > 0} .
(2.1)
Definição 2.8 (Variável aleatória discreta). Uma v.a. X diz-se do tipo discreto ou simplesmente discreta se o conjunto D é quanto muito numerável, e se P (X ∈ D) = 1.
Definição 2.9 (Função de probabilidade). Seja X uma v.a. discreta. Chama-se função de
probabilidade (f.p.), ou função massa de probabilidade, de X à função definida pelo conjunto dos
valores de D e pelas respectivas probabilidades, isto é, por (xi , pi ) onde xi ∈ D e pi = P (X = xi ).
Uma representação usual para a função de probabilidade da v.a. X, é:
(
X=
x1
x2
...
xi
...
P (X = x1 ) P (X = x2 ) . . . P (X = xi ) . . .
Propriedades da função de probabilidade:
1. P (X = xi ) = f (xi ) = pi ≥ 0;
2.
P∞
i=1 pi
= 1.
Observação: Para qualquer subconjunto real I, P (X ∈ I) =
P
xi ∈I∩D
P (X = xi ).
Exemplo 2.10. Considere novamente o Exemplo 2.2. O conjunto de pontos de descontinuidade
da função de distribuição é D = {0, 1, 2}. Como P (X ∈ D) = 1, conclui-se que X é uma v.a.
discreta com função de probabilidade,
(
X
0
1
2
1
4
1
2
1
4
Definição 2.11 (Variável aleatória contínua). Uma v.a. X diz-se do tipo contínuo ou simplesmente contínua se D = ∅ e se existe uma função não negativa, f , tal que para I ⊆ R,
P (X ∈ I) =
Z
f (x)dx.
I
À função f chamamos função densidade probabilidade ou função densidade.
12
CAPÍTULO 2. VARIÁVEIS ALEATÓRIAS
Propriedades da função densidade probabilidade:
1. f (x) ≥ 0, ∀x ∈ R;
2.
Observação: Como
R
R +∞
−∞
f (x) dx = 1.
f (x)dx é um integral de uma função não negativa e é sempre convergente,
I
então a P (X ∈ I), corresponde ao valor da área entre o eixo das abcissas e o gráfico da função
f no intervalo I considerado. Consequentemente P (X = x) = 0, ∀x ∈ R e
P (x1 ≤ X ≤ x2 ) = P (x1 < X ≤ x2 ) = P (x1 ≤ X < x2 ) = P (x1 < X < x2 ),
∀ x1 ≤ x2 .
Observação: Por definição, F 0 (x) = f (x), nos pontos onde existe derivada. Se não existir
derivada, f (x) = 0.
2.4
Momentos
Qualquer variável aleatória possui algumas características numéricas importantes. As mais conhecidas são o valor médio e a variância. Nesta secção vamos estudar outras características mais
gerais: os Momentos.
Definição 2.12 (Valor médio). O valor médio, valor esperado ou simplesmente média da v.a.
X é dado por,
µ = E(X) =
 P
∞


xi P (X = xi ) se X é uma v.a. discreta;

i=1
+∞
R


xf (x)dx

se X é uma v.a. contínua;
−∞
desde que a série/integral seja absolutamente convergente.
Definição 2.13 (Valor médio de uma função de uma variável aleatória). Seja X uma v.a. e
g uma função real de variável real contínua com quanto muito um conjunto numerável de pontos
de descontinuidade. Então o valor médio de Y = g(X) é dado por:
E(g(X)) =
 P
∞


g(xi )P (X = xi ) se X é uma v.a. discreta;

i=1
+∞
R


g(x)f (x)dx

se X é uma v.a. contínua;
−∞
desde que a série/integral seja absolutamente convergente.
Exemplo 2.14. Considere a variável aleatória introduzida no Exemplo 2.2. Os valores médios de
X e g(X) = X 2 , são respectivamente:
E(X) = 0 ×
1
4 +
2
1×
1
2
+2×
E(g(X)) = E(X ) = 02 ×
1
4
1
4
2
= 1,
+1 ×
1
2
+ 22 ×
1
4
= 32 .
13
2.4. MOMENTOS
Propriedades do valor esperado:
1. Se a é uma constante, E(a) = a;
2. Se a e b são constantes, E(aX + b) = aE(X) + b.
3. Se existirem E(g1 (X)) e E(g2 (X)), então
E(g1 (X) + g2 (X)) = E(g1 (X)) + E(g2 (X)).
Definição 2.15 (Momentos de ordem k). Seja X uma variável aleatória. Definem-se momentos
de ordem k em torno da origem por:
mk = E(X k ),
e os momentos centrais de ordem k de X por:
µk = E((X − µ)k ),
desde que os valores esperados existam.
Definição 2.16 (Variância e desvio padrão). A variância da v.a. X, σ 2 ou V (X), é o momento
central de ordem dois, isto é,
σ 2 = V (X) = E((X − µ)2 ),
desde que exista o valor esperado de (X − µ)2 . À sua raiz quadrada positiva, σ =
p
V (X),
chamamos desvio padrão da v.a. X.
Proposição 2.17. Se X é uma v.a., para a qual existe variância, V (X) = E X 2 −E 2 (X).
Propriedades da Variância:
1. Se a é uma constante, V (a) = 0;
2. Se a e b são constantes, V (aX + b) = a2 V (X).
Exemplo 2.18. Considere a variável aleatória introduzida no Exemplo 2.2. A variância de X é:
V (X) = E((X − 1)2 ) = (0 − 1)2 ×
1
4
+ (1 − 1)2 ×
1
2
+ (2 − 1)2 ×
1
4
= 12 .
Nota: A variância também podia ser calculada através do resultado da Proposição 2.17.
14
CAPÍTULO 2. VARIÁVEIS ALEATÓRIAS
Teorema 2.19 (Desigualdade de Chebychev). Se X é uma v.a. para a qual existe variância
σ 2 e c > 0 é uma constante real positiva, então
P (|X − µ| ≥ cσ) ≤
1
c2
⇔ P (|X − µ| < cσ) ≥ 1 −
1
.
c2
Exemplo 2.20 (Desigualdade de Chebychev). Para c = 2, podemos dizer que a probabilidade
da v.a. X assumir valores no intervalo ]µ − 2σ, µ + 2σ[ é superior a 1 − 1/4 = 0.75.
Observação: A generalidade da Desigualdade de Chebychev impede-a de ser muito precisa.
2.5
Outros parâmetros relevantes
Definição 2.21 (Coeficiente de variação). Seja X uma v.a. com suporte não negativo. O
Coeficiente de variação de X é,
CV =
σ
× 100%.
µ
Definição 2.22 (Coeficiente de Simetria). O Coeficiente de simetria, de uma v.a. X, é definido
por
β1 =
µ3
.
σ3
Definição 2.23 (Coeficiente de achatamento ou Kurtosis). Define-se o coeficiente de achatamento ou kurtosis como
β2 =
µ4
− 3.
σ4
Definição 2.24 (Quantil). O quantil de ordem p, χp , da v.a. X é a solução da equação:
F (χp ) = p,
0 < p < 1.
Se X é uma v.a. discreta, a equação F (χp ) = p pode não ter solução exacta. Neste caso
considera-se χp = min{x : F (x) ≥ p}.
Definição 2.25 (Mediana). Trata-se do quantil de ordem p = 1/2. Costuma-se representar a
mediana, da v.a. X, por med(X).
Definição 2.26 (Moda). A Moda, representada por mo, é o valor que maximiza a função de
probabilidade ou a função densidade probabilidade, desde que seja único.
15
2.6. FUNÇÕES DE UMA VARIÁVEL ALEATÓRIA
2.6
Funções de uma variável aleatória
Existem muitas formas de criar novas variáveis aleatórias, a partir de outras já conhecidas. Muitas
destas variáveis aparecem de forma natural com a resolução de problemas. Assim, sejam X e Y
variáveis aleatórias tais que Y é função de X (Y = g(X)). Interessa-nos saber como conhecer a
distribuição de Y . Para isso basta conhecer a sua função de distribuição, FY . Independentemente
de X ser uma v.a. discreta ou contínua, podemos sempre obter a sua função de distribuição do
seguinte modo:
FY (y) = P (Y ≤ y) = P (g(X) ≤ y) = P (Ay ),
onde Ay = {x ∈ Dx : g(x) ≤ y}. Geralmente consegue-se calcular P (Ay ), a partir da função de
distribuição de X, FX .
Exemplo 2.27. Considere a v.a. X com função de distribuição,
FX (x) =



x≤0
0<x<1
x≥1
0,
5x4 − 4x3 ,


1,
Estamos interessados em conhecer a distribuição das v.a.’s Y = 2X − 1 e W = X 2 . Comecemos
por determinar a f.d. da v.a. Y :
FY (y) = P (Y ≤ y) = P (2X − 1 ≤ y) = P (X ≤
=
=



5







5
y+1 4
2
y+1 4
2
0,
−4
1,
y+1 3
0,
−4
1,
y+1 3
,
2
2
, 0<
y+1
2
y+1
2
y+1
2
y+1
2 )
= FX ( y+1
2 )=
≤0
<1
≥1
y ≤ −1
−1 < y < 1
y≥1
Determinemos agora a função de distribuição de W . É obvio que se w < 0, FW (w) = 0. Se
w ≥ 0,
√
√
√
√
√
FW (w) = P (W ≤ w) = P (− w ≤ X ≤ w) = FX ( w) − FX (− w) = FX ( w) =
( √
√ 3
√
4
5 w −4 w , 0≤ w <1
√
=
1,
w≥1
(
=
5w2 − 4w3/2 , 0 ≤ w < 1
1,
w≥1
A procedimento, acima indicado, é válido quer X seja uma v.a. contínua ou uma v.a. discreta.
Contudo no caso de X ser uma v.a. discreta, Y = g(X) é também uma v.a. discreta. Nesta
situação podemos também conhecer de distribuição de Y a partir da sua função de probabilidade.
16
CAPÍTULO 2. VARIÁVEIS ALEATÓRIAS
Assim, seja Dx o suporte de X, isto é, o conjunto dos valores de X com probabilidade positiva.
Então,
P (Y = y) = P (g(X) = y) = P (X ∈ Ay ),
onde Ay = {x ∈ Dx : g(x) = y}.
Exemplo 2.28. Considere novamente a variável aleatória introduzida no Exemplo 2.2 e a nova
variável aleatória Y = (X − 1)2 . Sendo X uma v.a. discreta, concluímos que Y é também uma
v.a. discreta. Como X tem como suporte os valores 0, 1,e 2, o suporte de Y é o conjunto dos
valores 0 e 1. Resulta que
P (Y = 0) = P ((X − 1)2 = 0) = P (X = 1) = 21 ,
P (Y = 1) = P ((X − 1)2 = 1) = P (X − 1 = −1 ∨ X − 1 = 1) =
= P (X = 0) + P (X = 2) =
Então a função de probabilidade de Y é
(
Y
0
1
1
2
1
2
1
4
+ 41 .
Capítulo 3
Vectores aleatórios
Sejam X1 , X2 , . . . , Xm
m variáveis aleatórias. Então X = (X1 , X2 , . . . , Xm ) é um vector
aleatório de dimensão m. Vamos restringir-nos apenas aos pares aleatórios (X, Y ) = (X1 , X2 ),
isto é, aos vectores aleatórios com m = 2. Estes podem ser do tipo discreto, contínuo ou misto,
conforme X e Y são v.a. de tipo discreto, contínuo ou uma discreta e a outra contínua.
Definição 3.1 (Função de distribuição conjunta). Seja (X, Y ) um par aleatório. A função de
de distribuição de (X, Y ) é:
FX,Y (x, y) = P (X ≤ x, Y ≤ y),
3.1
∀(x, y) ∈ R2 .
Par aleatório discreto
Definição 3.2 (Par aleatório discreto). Diz-se que (X, Y ) é um par aleatório discreto se e só
se X e Y são variáveis aleatórias discretas.
Definição 3.3 (Função de probabilidade conjunta). Seja (X, Y ) um par aleatório discreto
tomando valores no conjunto D = {(xi , yj ) ∈ R2 : P (X = xi , Y = yj ) > 0}. Chamamos função
de probabilidade conjunta (f.p.c.) de (X, Y ) à função:
pij = P (X = xi , Y = yj ), i = 1, 2, . . . , j = 1, 2, . . .
Propriedades da função de probabilidade conjunta:
1. 0 ≤ pij ≤ 1, ∀(xi , yj ) ∈ D;
2.
XX
i
pij = 1
j
Observação: Quando o conjunto D é finito e pequeno é costume representar a f.p.c. numa
tabela, idêntica à que a seguir se apresenta:
17
18
CAPÍTULO 3. VECTORES ALEATÓRIOS
X\Y
y1
y2
...
yn
x1
x2
..
.
p11
p21
..
.
p12
p22
..
.
...
...
..
.
p1n
p2n
..
.
p1•
p2•
..
.
xm
pm1
pm2
...
pmn
pm•
p•1
p•2
...
p•m
1
Definição 3.4 (Função de probabilidade marginal). Define-se função de probabilidade marginal
de X e função de probabilidade marginal de Y como:
pi• = P (X = xi ) =
p•j
= P (Y = yj ) =
∞
X
j=1
∞
X
∞
X
P (X = xi , Y = yj ) =
j=1
∞
X
P (X = xi , Y = yj ) =
i=1
pij ,
i = 1, 2, . . .
pij , j = 1, 2, . . .
i=1
Definição 3.5 (Função de probabilidade condicional). Seja (X, Y ) um par aleatório discreto.
Define-se probabilidade condicional de X dado Y = yj como,
P (X = xi |Y = yj ) =
pij
P (X = xi , Y = yj )
=
,
P (Y = yj )
p•j
se
P (Y = yj ) > 0,
se
P (X = xi ) > 0.
e probabilidade condicional de Y dado X = xi como
P (Y = Yj |X = Xi ) =
pij
P (X = xi , Y = yj )
=
,
P (X = xi )
pi•
Definição 3.6 (Independência entre variáveis aleatórias discretas). As v.a.’s X e Y dizem-se
independentes se, e só se, pij = pi• p•j ,
∀i, j.
Exemplo 3.7. Seja (X, Y ) um par aleatório discreto com a seguinte f.p.c.:
X \ Y
0
1
2
0
1/4
1/8
0
3/8
1
1/8
1/8
0
1/4
(a) Qual a probabilidade de X ser maior que Y ?
(b) Calcule P (X ≤ 1; Y > 0).
2
0
1/8
1/4
3/8
3/8
3/8
1/4
(Solução: 1/8)
(Solução: 3/8)
(c) X e Y são v.a.’s independentes?
(Solução: X e Y não são independentes)
(d) Determine a função de probabilidade de X|Y = 2 e calcule E(X|Y = 2).
19
3.2. PAR ALEATÓRIO CONTÍNUO
3.2
Par aleatório contínuo
Definição 3.8 (Par aleatório contínuo). Um par aleatório (X, Y ) diz-se contínuo se existe uma
função não negativa fX,Y tal que, tal que, para qualquer região I ⊂ R2 ,
P ((X, Y ) ∈ I) =
Z Z
fX,Y (u, v)dudv.
I
A fX,Y chamamos função densidade probabilidade conjunta ou função densidade conjunta.
Propriedades da função densidade probabilidade conjunta:
1. fX,Y (x, y) ≥ 0,
2.
R +∞ R +∞
−∞
−∞
∀(x, y) ∈ R2 ;
fX,Y (x, y)dxdy = 1.
Definição 3.9 (Função densidade de probabilidade marginal). Define-se a função densidade
de probabilidade marginal de X, como:
Z +∞
fX (x) =
−∞
f(X,Y ) (x, y) dy,
∀x ∈ R
De modo análogo obtêm-se a função densidade de probabilidade marginal de Y ,
Z +∞
fY (y) =
−∞
f(X,Y ) (x, y) dx,
∀y ∈ R
Definição 3.10 (Função densidade condicional). Em todos os pontos (x, y) onde fX,Y é
contínua, fY (y) > 0 e é contínua, a função densidade condicional de X, dado Y = y, existe e
calcula-se como:
fX|Y (x|y) =
fX,Y (x, y)
.
fY (y)
De modo análogo, em todos os pontos (x, y) onde fX,Y é contínua, fX (x) > 0 e é contínua, a
função densidade condicional de Y , dado X = x, existe e calcula-se como:
fY |X (y|x) =
fX,Y (x, y)
.
fX (x)
Definição 3.11 (Independência entre variáveis aleatórias contínuas). Seja (X, Y ) um par
aleatório contínuo. As variáveis X e Y dizem-se independentes se e só se
fX,Y (x, y) = fX (x)fY (y),
∀ (x, y) ∈ R2
20
CAPÍTULO 3. VECTORES ALEATÓRIOS
Exemplo 3.12. Os tempos de vida, em centenas de horas, das duas componentes principais de
um sistema de controlo são v.a.’s (X, Y ) com função densidade conjunta
(
cx2 y
0 < x < 3, 0 < y < 2
0
outros valores de (x, y) ∈ R2
fX,Y (x, y) =
(a) Qual o valor de c?
fX,Y (x, y) ≥ 0, ∀ (x, y) ∈ R2 ⇒ c ≥ 0
Z +∞ Z +∞
−∞
−∞
fX,Y (x, y) dxdy = 1 ⇔
Z 2 Z 3
cx2 y dx dy = 1 ⇔ c =
0
0
1
18
(b) Qual a probabilidade de cada uma das componentes durar mais de 100 horas?
P (X > 1, Y > 1) =
Z 2Z 3
1
1
1
18
x2 y dxdy =
13
18
(c) Qual a probabilidade da 1a componente durar mais de 100 horas?
Como fX (x) =
R +∞
−∞
f(X,Y ) (x, y) dy =
Z
P (X > 1)
3
Z
3
fX dx =
=
1
1
R2
1 2
x y
0 18
dy =
x2
9 ,
0 < x < 3, resulta que:
x2
26
dx =
9
27
(d) Os tempos de vida das componentes são independentes?
Como
fY (y)
=
f (x, y)
=
y/2
0
0<y<2
o. v. de y
1 2
18 x y
0
fX (x) =
x2 /9
0
0<x<3
o. v. de x
0 < x < 3, 0 < y < 2
= fX (x) fY (y)
o. v. (x, y)
Conclui-se que X e Y são v.a.’s independentes.
3.3
Momentos de vectores aleatórios
Definição 3.13 (Valor médio). Seja (X, Y ) um par aleatório e g : R2 → R uma função real.
Define-se valor médio ou valor esperado ou média de g(X, Y ) como:
E(g(X, Y )) =
 ∞ ∞
P P


g(xi , yj )pij






se X e Y são v.a.’s discretas;
i=1 j=1
+∞
R +∞
R
g(x, y)fX,Y (x, y)dxdy se X e Y são v.a.’s contínuas.
−∞ −∞
Nota: Uma das funções mais utilizadas é g(x, y) = xy, obtendo-se:
E(XY ) =
 ∞ ∞
P P


xi yj pij






i=1 j=1
+∞
R +∞
R
se X e Y são v.a.’s discretas;
xyfX,Y (x, y)dxdy se X e Y são v.a.’s contínuas.
−∞ −∞
3.3. MOMENTOS DE VECTORES ALEATÓRIOS
21
Definição 3.14 (Covariância). Sendo µX = E(X) e µY = E(Y ), define-se covariância entre
as v.a.’s X e Y por:
Cov (X, Y ) = E [(X − µX ) (Y − µY )] .
Proposição 3.15. Caso exista a covariância entre X e Y , esta pode ser calculada através da
fórmula:
Cov (X, Y ) = E (XY ) − E (X) E (Y ) .
Outras propriedades do valor médio e variância:
1. E(X ± Y ) = E(X) ± E(Y );
2. V (X ± Y ) = V (X) + V (Y ) ± 2 Cov(X, Y ).
Proposição 3.16. Se X e Y são independentes, então E(XY ) = E(X)E(Y ), e consequentemente Cov(X, Y ) = 0.
Propriedades da Covariância: Sejam X, Y , e Z v.a.’s, a, b e c constantes
reais. Então:
1. Cov(X, Y ) = Cov(Y, X);
2. Cov(X, X) = V (X);
3. Cov (a + bX, c + dY ) = bd Cov (X, Y );
4. Cov (aX + bY, cZ) = ac Cov (X, Z) + bc Cov (Y, Z).
Definição 3.17 (Coeficiente de correlação). Define-se coeficiente de correlação de (X, Y ) por
Cov (X, Y )
.
ρ (X, Y ) = p
V (X) V (Y )
Propriedades do coeficiente de correlação:
1. −1 ≤ ρ (X, Y ) ≤ 1;
2. Se X e Y são v.a.’s independentes, então ρ (X, Y ) = 0.
22
CAPÍTULO 3. VECTORES ALEATÓRIOS
Capítulo 4
Principais Distribuições
4.1
Distribuições discretas
4.1.1
Distribuição Uniforme
Definição 4.1 (Distribuição Uniforme Discreta). Dizemos que a variável aleatória X segue uma
distribuição Uniforme Discreta de parâmetro n e escrevemos X ∼ U nif (n), ou abreviadamente,
X ∼ U (n), se a função de probabilidade de X é dada por:
(
X
1
2
1
n
1
n
... n
. . . n1
ou
P (X = x) =
1
,
n
x = 1, . . . , n.
A respectiva função de distribuição é:
F (x) =



0,


x<1
k
n,
k = 1, . . . , n − 1 .
k ≤ x < k + 1,



 1,
x≥n
Proposição 4.2 (Valor médio e Variância). Considere a v.a. X ∼ U nif (n). Então,
E(X) =
Demonstração.
E(X) =
n+1
2
e
V (X) =
n2 − 1
.
12
1
n
X
x
x=1
n
1
1X
1 n(n + 1)
n+1
=
x= ×
=
.
n
n x=1
n
2
2
Para calcular a variância, é mais fácil utilizar o resultado V (X) = E(X 2 ) − E 2 (X). Assim,
n
1X
1 n(n + 1)(2n + 1)
(n + 1)(2n + 1)
E(X ) =
x
=
x2 = ×
=
.
n
n
n
6
6
x=1
x=1
2
Logo V (X) =
1
n
X
21
(n+1)(2n+1)
6
−
n+1
2
2
=
n2 −1
12 .
Utilizam-se aqui os resultados, 1 + 2 + 3 + . . . + n =
que se podem confirmar por Indução Matemática.
n(n+1)
2
23
e 12 + 22 + 32 + . . . + n2 =
n(n+1)(2n+1)
,
6
n ∈ N,
24
CAPÍTULO 4. PRINCIPAIS DISTRIBUIÇÕES
4.1.2
Distribuição de Bernoulli
Definição 4.3 (Prova de Bernoulli). Trata-se de um experiência aleatória com apenas dois
resultados possíveis (que se costumam designar por “Sucesso” ou “Insucesso”).
Definição 4.4 (Distribuição de Bernoulli). É sempre possível definir uma variável aleatória X
que toma o valor 1 se o resultado da experiência é “Sucesso” e 0 se é “Insucesso”. Denotando
p = P (“Sucesso”) > 0, então a função de probabilidade de X é dada por:
(
0
1
1−p p
X
P (X = x) = px (1 − p)1−x ,
ou
x = 0, 1,
0 < p < 1.
Dizemos que a v.a. X segue uma distribuição de Bernoulli, de parâmetro p, e escrevemos
X ∼ Ber(p).
Proposição 4.5. Seja a v.a. X ∼ Ber(p). Então
E(X) = p
4.1.3
V (X) = p(1 − p).
e
Distribuição Binomial
Definição 4.6 (Distribuição Binomial). Considere-se uma sucessão de provas de Bernoulli independentes, onde em cada prova a probabilidade de “sucesso”, p, é constante. A v.a. X=
“número de sucessos em n provas de Bernoulli” segue uma distribuição Binomial de parâmetros
n e p, e escrevemos X ∼ Bin(n, p). A função de probabilidade é:
!
px (1 − p)n−x ,
x = 0, 1, . . . , n,
1
2
x
3
4
P(X=k)
0.1
0.2
0.3
0.4
0.5
0
0.0
0.1
0.2
P(X=k)
0.3
0.4
0.4
0.3
P(X=k)
0.2
0.1
0.0
Bin(n=4 , p=0.75)
0.5
Bin(n=4 , p=0.5)
0.5
Bin(n=4 , p=0.25)
0 < p < 1.
0
1
2
x
3
4
0.0
P (X = x) =
n
x
0
1
2
3
4
x
Figura 4.1: Gráficos da função de probabilidade de uma v.a. Bin(4, p), para alguns valores de p.
4.1. DISTRIBUIÇÕES DISCRETAS
25
Observação: Pela definição anterior, temos que X = I1 + I2 + . . . + In , onde Ii , i = 1, . . . , n
são v.a.’s independentes com distribuição Ber(p).
Proposição 4.7. Seja X uma variável aleatória com distribuição Bin(n, p). Então a nova v.a.
Y = n − X tem distribuição Bin(n, 1 − p).
Proposição 4.8 (Valor médio e Variância). Considere a v.a. X ∼ Bin(n, p). Então,
E(X) = np
e
V (X) = np(1 − p).
Demonstração. A demonstração torna-se mais simples se usarmos a representação X = I1 + I2 +
. . . + In , introduzida na última observação. Assim,
E(X) = E(I1 + I2 + . . . + In ) = E(I1 ) + E(I2 ) + . . . + E(In ) = p + p + . . . + p = np.
Atendendo à independência das variáveis Ii ,
V (X) = V (I1 + I2 + . . . + In ) = V (I1 ) + V (I2 ) + . . . + V (In ) = np(1 − p).
Exemplo 4.9 (Exame de P.E. D - 2007/08). Num concurso de televisão o apresentador propõe ao
concorrente o seguinte jogo: atiram-se ao ar 3 moedas, em simultâneo, e se todos os lançamentos
resultarem em caras o apresentador dá 10 e ao concorrente; Se todos os lançamentos resultarem
em coroas o apresentador dá igualmente ao concorrente 10 e. Mas se os lançamentos resultarem
em 2 caras e 1 coroa ou em 2 coroas e 1 cara, o concorrente tem de dar ao apresentador 5 e.
(a) Represente X a quantidade de dinheiro ganha pelo concorrente. Determine a sua função
de probabilidade.
(b) Baseado no valor esperado de X, diga se o concorrente deve aceitar jogar este jogo.
Resolução:
(a) Considere a v.a. Y: “número de caras obtidas em 3 lançamentos de uma moeda (equilibrada)”. Então como em cada lançamento o resultado é cara (sucesso) ou coroa (insucesso)
e os resultados dos lançamentos são mutuamente independentes, Y ∼ Bin(3, 1/2).
Como P (X = −5) = P (Y = 1) + P (Y = 2) = 3/4 e P (X = 10) = P (Y = 0) + P (Y =
3) = 1/4, resulta a seguinte função de probabilidade:
X
−5
3/4
10
1/4
(b) Como E(X) = −5/4 < 0, o concorrente não deve jogar.
26
CAPÍTULO 4. PRINCIPAIS DISTRIBUIÇÕES
Proposição 4.10 (Aditividade). Sejam Xi , i = 1, . . . , m, m v.a.’s independentes tais que
Xi ∼ Bin(ni , p). Então a sua soma tem também distribuição Binomial, isto é,
m
X
Sm =
Xi ∼ Bin(n1 + . . . + nm , p).
i=1
4.1.4
Distribuição Geométrica
Definição 4.11 (Distribuição Geométrica). Considere-se uma sucessão de provas de Bernoulli
independentes, onde em cada prova a probabilidade de “sucesso”, p, é constante. A v.a. X=
“número de provas necessárias até ocorrer o primeiro sucesso” segue uma distribuição Geométrica
de parâmetro p, e escrevemos X ∼ G(p). A função de probabilidade é:
P (X = x) = p(1 − p)x−1 ,
x = 1, 2, . . . ,
0 < p < 1.
Observação: O nome desta distribuição deve-se ao facto da sucessão das probabilidades ser uma
progressão geométrica de razão 1 − p.
0.4
0.3
P(X=k)
0
5
10
15
20
0.0
0.1
0.2
0.3
0.2
0.0
0.1
P(X=k)
0.4
0.5
G(0.5)
0.5
G(0.25)
0
5
x
10
15
20
x
Figura 4.2: Gráficos da função de probabilidade de uma v.a. G(p), para alguns valores de p.
Proposição 4.12 (Valor médio e Variância). Considere a v.a. X ∼ G(p). Então,
E(X) =
1
p
e
V (X) =
1−p
p2
Demonstração. O cálculo do valor médio e da variância é mais fácil se usarmos alguns dos resultados das séries de funções: Assim seja S(r) =
Resulta que:
1. S(r) =
∞
P
1
rk = 1−r
,
|r| < 1;
k=0
2. S 0 (r) =
∞
P
k=1
krk−1 =
1
,
(1−r)2
|r| < 1;
P∞
k=0 r
k
uma série geométrica de razão r.
27
4.1. DISTRIBUIÇÕES DISCRETAS
3. S 00 (r) =
∞
P
k(k − 1)rk−2 =
k=2
2
,
(1−r)3
|r| < 1.
Assim,
E(X) =
∞
X
x p(1 − p)x−1 = p S 0 (1 − p) = p p12 = p1 .
x=1
Para se conseguir calcular a variância, de um modo mais fácil, usa-se mais uma vez o resultado
V (X) = E(X 2 ) − E 2 (X). Tem-se,
E(X 2 ) =
=
∞
X
∞
X
x2 p(1 − p)x−1 =
x=1
∞
X
x(x − 1 + 1) p(1 − p)x−1 =
x=1
x−1
x(x − 1) p(1 − p)
+
x=1
∞
X
x p(1 − p)x−1 =
x=1
= p(1 − p)
∞
X
x(x − 1) (1 − p)x−2 + E(X) = p(1 − p)S 00 (1 − p) + E(X) =
x=2
= p(1 − p) p23 +
1
p
=
2(1−p)+p
p2
=
2−p
p2
Então,
V (X) =
2−p
p2
−
1
p2
=
1−p
.
p2
Proposição 4.13. Temos que F (x) = P (X ≤ x) = 1 − (1 − p)[x] , x ≥ 1, onde [x] representa a
parte inteira de x;
Como as provas de Bernoulli são independentes, a contagem do número de provas necessárias
até ao proximo sucesso pode ser recomeçada em qualquer prova, sem que isso altere a distribuição
da variável aleatória.
Proposição 4.14 (Propriedade da falta de memória da distribuição Geométrica). Seja
X ∼ G(p). Sendo x e y inteiros positivos,
P (X > x + y|X > y) = P (X > x).
4.1.5
Distribuição Hipergeométrica
Definição 4.15 (Distribuição Hipergeométrica). Considere-se uma população de N elementos, dos quais M possuem determinada característica e os restantes (N − M ) não a possuem
(dicotomia). Considere-se a experiência aleatória que consiste em seleccionar ao acaso e sem
reposição n elementos (amostra). Associada a esta experiência aleatória, defina-se a v.a. X - no
28
CAPÍTULO 4. PRINCIPAIS DISTRIBUIÇÕES
de elementos com a característica, entre os seleccionados sem reposição. Esta v.a. X tem uma
função de probabilidade,
P (X = x) =
M N −M x
n−x
,
N
n
max(0, M + n − N ) ≤ x ≤ min(M, n),
e diz-se ter distribuição Hipergeométrica de parâmetros (N, M, n) (pode ser escrito abreviadamente X ∼ H(N, M, n)).
Proposição 4.16 (Valor médio e Variância). Seja a v.a. X ∼ H(N, M, n). Então:
E(X) = n M
N
e
M
V (X) = n N 2 (N
(N − M )(N − n).
−1)
Exemplo 4.17. Num aquário existem 9 peixes, dos quais 5 estão saudáveis (S) e os restantes 4
estão doentes (D). Considere-se a experiência aleatória: extracção ao acaso e sem reposição de
3 peixes e registo do seu estado de saúde. Associada a esta experiência, considere-se a v.a. X número de peixes saudáveis na amostra extraída de 3 peixes. Quantos peixes saudáveis esperamos
encontrar em cada extracção?
Resposta: Como X ∼ H(9, 5, 3), o número de peixes saudáveis, que esperamos encontrar em
cada extracção de 3 peixes, é E(X) = 5/3.
Nota: Em situações em que se conhece totalmente a composição da população e há apenas dois
resultados possíveis, a distribuição Binomial caracteriza extracções com reposição. Se não houver
reposição, a distribuição adequada é a Hipergeométrica. Quando n é pequeno, relativamente
ao valor de N , a probabilidade de sucesso em cada tiragem sem reposição varia muito pouco
de prova para prova (na distribuição Binomial este valor é constante). Este argumento permitenos aproximar o(s) valor(es) da(s) probabilidade(s) pela distribuição Hipergeométrica, pelo(s)
valor(es) da(s) probabilidade(s) pela distribuição Binomial.
Aproximação da distribuição Hipergeométrica pela distribuição Binomial:
n
Seja X uma v.a. tal que X ∼ H(N, M, n). Então, caso N
≤ 0.1, isto é, caso
o tamanho da amostra seja muito pequeno em relação ao tamanho da população,
podemos aproximar a distribuição de X pela distribuição Bin(n, p), com p = M
N,
ou seja,
(M )(N −M )
P (X = x) = x Nn−x ≈
(n)
!
n
(M/N )x (1 − M/N )n−x .
x
29
4.1. DISTRIBUIÇÕES DISCRETAS
4.1.6
Distribuição de Poisson
Definição 4.18 (Processo de Poisson). Suponha que estamos interessados em estudar a variável
aleatória X que conta o número de ocorrências de um acontecimento num dado intervalo de
tempo2 de duração t (por exemplo, o número de acidentes rodoviários ocorridos num dia ou o
número de clientes que entram numa loja durante 1 hora). Temos um processo de Poisson de
parâmetro λ > 0, quando se verificam as seguintes condições:
1. A probabilidade p de ocorrer exactamente um acontecimento num intervalo de amplitude
arbitrariamente pequena d é proporcional à sua duração, isto é, p = λd;
2. A probabilidade de ocorrer mais do que um acontecimento num intervalo de amplitude
arbitrariamente pequena é aproximadamente igual a zero;
3. O número de acontecimentos que ocorrem em dois intervalos disjuntos são independentes.
4. O número de ocorrências em dois intervalos com a mesma duração, têm a mesma distribuição.
Para deduzir a função de probabilidade, vamos considerar um intervalo unitário (t = 1),
dividido em n sub-intervalos, todos com amplitude d = 1/n, com n suficientemente
grande. Nas condições acima indicadas, o número de ocorrências em cada sub-intervalo
é bem aproximado por uma v.a. Ber(p), com p = λ/n. Então X tem aproximadamente
distribuição Bin(n, λ/n), isto é,
P (X = x) ≈
n
x
!
λ x
n
1−
λ n−x
,
n
x = 0, 1, . . . , n.
Se n → ∞,
P (X = x) = lim
n→∞
n
x
!
λ x
n
1−
λ n−x
n
=
e−λ λx
x!
x = 0, 1, . . . , n.
Definição 4.19 (Distribuição de Poisson). Dizemos que a variável aleatória X segue uma
distribuição de Poisson de parâmetro λ, e escrevemos X ∼ P (λ), se a função de probabilidade
de X é:
P (X = x) =
e−λ λx
,
x!
x = 0, 1, 2, . . . , λ > 0.
Observação: Se num processo de Poisson, os acontecimentos acorrem a uma taxa média λ,
por unidade de tempo, então o número de ocorrências num intervalo de amplitude t > 0 tem
distribuição de Poisson de parâmetro λt.
2
Note que podemos também considerar uma área, um volume, etc.
30
CAPÍTULO 4. PRINCIPAIS DISTRIBUIÇÕES
Por exemplo, se durante a hora de almoço (das 12 às 14 horas) a chegada de automóveis a um
parque se processa a uma taxa de 180 automóveis por hora e tem distribuição de Poisson, então
a distribuição do número de automóveis que chegam em 15 minutos é Poisson com parâmetro
1
4
λt = 180 ×
= 45. A distribuição do número de automóveis que chegam durante a hora do
P(X=k)
P(2)
0
5
10
15
20
0.00 0.05 0.10 0.15 0.20 0.25 0.30
P(X=k)
0.00 0.05 0.10 0.15 0.20 0.25 0.30
almoço é Poisson de parâmetro λt = 180 × 2 = 360.
P(10)
0
x
5
10
15
20
x
Figura 4.3: Função de probabilidade de uma v.a. P (λ), para alguns valores de λ.
Proposição 4.20 (Valor médio e Variância). Seja X uma v.a. com distribuição P (λ). Então,
E(X) = λ
e
V (X) = λ.
Aproximação da distribuição Binomial pela distribuição de Poisson
Seja X uma v.a. tal que X ∼ Bin(n, p). É possível de verificar que
!
lim
n→∞
np→λ
n x
λx
p (1 − p)(n−x) = e−λ ,
x
x!
x = 0, 1, 2, . . .
Então, caso n ≥ 50 e np ≤ 5, pode-se aproximar a distribuição de Binomial pela
distribuição de Poisson com λ = np.
Teorema 4.21 (Aditividade). Sejam X1 , X2 , . . . , Xm variáveis aleatórias independentes com
Xi ∼ P (λi ), i = 1, . . . , m. Então,
Sm =
m
X
i=1
Xi ∼ P (λ1 + . . . + λm ).
31
4.2. DISTRIBUIÇÕES CONTÍNUAS
4.2
Distribuições Contínuas
4.2.1
Distribuição Uniforme Contínua
Definição 4.22 (Distribuição Uniforme Contínua). Dizemos que a variável aleatória X segue
uma distribuição Uniforme (contínua) no intervalo [a, b], −∞ < a < b < +∞, e escrevemos
X ∼ U nif (a, b), ou X ∼ U (a, b), se a função densidade probabilidade de X é dada por:
(
1
b−a
, a≤x≤b
0,
c.c.
f (x) =
A respectiva função de distribuição é dada por,
F (x) =




0,
x−a
b−a ,



1,
x<a
a≤x<b
x≥b
f (x)
6
F (x)
6
1
b−a
1
-
a
b
x
a
-
b
x
Figura 4.4: Função densidade (esquerda) e função de distribuição (direita) de uma v.a. U (a, b).
Proposição 4.23 (Valor médio e Variância). Seja a v.a. X ∼ U (a, b). Então:
E(X) =
a+b
2
e
V (X) =
(b − a)2
.
12
Demonstração.
Z b
Z +∞
E(X) =
xf (x)dx =
−∞
a
"
x
x2
dx =
b−a
2(b − a)
#a
=
b
b2 − a2
a+b
=
2(b − a)
2
Como,
2
Z +∞
E(X ) =
2
x f (x)dx =
−∞
Z b
x2
a
"
x3
dx =
b−a
3(b − a)
#a
=
b
b2 + ab + a2
,
3
32
CAPÍTULO 4. PRINCIPAIS DISTRIBUIÇÕES
resulta que a variância é
V (X) = E(X 2 ) − E 2 (X) =
b2 + ab + a2 (a + b)2
b2 + a2 − 2ab
(b − a)2
−
=
=
.
3
4
12
12
O caso particular da distribuição Uniforme com a = 0 e b = 1 é o que apresenta mais interesse,
devido ao seguinte teorema:
Teorema 4.24 (Teorema da Transformação Uniformizante). Seja X uma variável aleatória
contínua, com função de distribuição FX (x). Então a variável aleatória Y = FX (X) tem distribuição U (0, 1).
4.2.2
Distribuição Exponencial
Começamos por introduzir a função Gama, presente em muitos livros de Análise Matemática.
A função Gama corresponde ao integral:
Z ∞
Γ(a) =
xa−1 e−x dx,
a>0
(4.1)
0
Propriedades da função Gama:
1. Γ(α + 1) = αΓ(α);
2. Γ(n) = (n − 1)!,
√
3. Γ(1/2) = π
4.
n∈N
R ∞ α−1 −βx
e
dx = Γ(α)
0 x
βα .
Definição 4.25 (Distribuição Exponencial). Uma variável aleatória X diz-se seguir uma distribuição Exponencial de parâmetro λ, e escrevemos X ∼ Exp(λ), se a sua função densidade
probabilidade for dada por:
(
f (x) =
0,
x ≤ 0;
−λx
λe
, x > 0;
λ > 0.
A sua função de distribuição é dada por:
(
F (x) =
0,
x≤0
1 − e−λx , x > 0
33
4.2. DISTRIBUIÇÕES CONTÍNUAS
1.0
Função de distribuição Exponencial
1.0
Função densidade Exponencial
0.6
0.4
0.2
0
1
2
3
0.0
0.0
0.2
0.4
0.6
0.8
λ=1
λ=2
0.8
λ=1
λ=2
4
0
1
x
2
3
4
x
Figura 4.5: Função densidade (esquerda) e função de distribuição (direita) de uma v.a. Exp(λ).
Proposição 4.26 (Valor médio e Variância). Considere a v.a. X ∼ Exp(λ). Então,
E(X) =
1
λ
e
V (X) =
1
.
λ2
Demonstração. Vamos utilizar as propriedades da função Gama para calcular o valor médio.
Assim,
Z ∞
Z +∞
xλ e
xf (x)dx =
E(X) =
−∞
−λx
0
Z ∞
dx = λ
x2−1 e−λx dx = λ
0
De modo análogo se calcula E(X 2 ) e se verifica que V (X) =
Γ(2)
1
= .
2
λ
λ
1
.
λ2
Proposição 4.27 (Relação entre a distribuição Exponencial e Poisson). Considere um acontecimento que ocorre de acordo com um Processo de Poisson de parâmetro λ, por unidade de
tempo. Então, o tempo até à primeira ocorrência e o tempo entre duas ocorrências consecutivas
tem distribuição Exp(λ).
Exemplo 4.28. Admita que o número de avarias de uma fotocopiadora é um processo de Poisson
com taxa λ =5/ano. Calcule a probabilidade do tempo entre avarias consecutivas ser inferior a
um mês.
Resolução: O tempo X entre avarias consecutivas tem distribuição Exp(5). Assim, a probabilidade pedida é:
P (X < 1/12) = FX (1/12) = 1 − e−λ/12 = 1 − e−5/12 = 0.3408.
Teorema 4.29 (Falta de memória da distribuição exponencial). Seja X ∼ Exp(λ). Então:
P (X ≥ x + y|X ≥ y) = P (X ≥ x).
34
CAPÍTULO 4. PRINCIPAIS DISTRIBUIÇÕES
4.2.3
Distribuição Gama
A distribuição Gama é uma generalização da distribuição Exponencial.
Definição 4.30 (Distribuição Gama). Uma variável aleatória X tem distribuição Gama de
parâmetros α > 0 e λ > 0, e escrevemos X ∼ G(α, λ), se a sua função densidade probabilidade
for dada por:
(
f (x) =
x ≤ 0;
x > 0;
0,
1
α α−1
Γ(α) λ x
e−λx ,
e a sua função de distribuição é dada por:
(
F (x) =
0,
Rx
1
α α−1
0 Γ(α) λ t
x≤0
e−λt dt, x > 0
Proposição 4.31 (Valor médio e Variância). Considere a v.a. X ∼ G(α, λ). Então,
E(X) =
α
λ
e
V (X) =
α
.
λ2
Só é possível determinar a função de distribuição se α ∈ N. Considere a v.a. X ∼ G(α, λ),
com α ∈ N (neste caso particular a distribuição é também conhecida por distribuição de Erlang).
Então a a sua função densidade probabilidade é:
(
f (x) =
0,
1
α α−1
(α−1)! λ x
e−λx ,
x ≤ 0;
x > 0;
e a sua função de distribuição é dada por:
F (x) =



x≤0
0,
−λx

 1−e
α−1
P
i=0
(λx)i
i!
, x>0
Proposição 4.32 (Distribuição da soma de Exponenciais i.i.d.). Sejam Xi , i = 1, 2, . . . , n
variáveis aleatórias independentes com distribuição Exp(λ), então,
Sn =
n
X
Xi ∼ G(n, λ).
i=1
Exemplo 4.33. Admita que o número de avarias de uma fotocopiadora é um processo de Poisson
com taxa λ =5/ano. O tempo Y que decorre até à segunda avaria é uma variável aleatória
G(2, 5). A probabilidade da segunda avaria ocorrer após 6 meses é
P (Y > 1/2) = 1 − P (Y ≤ 1/2) = 1 − 1 − e−5/2
1
X
(5/2)i i=0
i!
= e−5/2 ×
7
2
= 0.2873
35
4.2. DISTRIBUIÇÕES CONTÍNUAS
4.2.4
Distribuição Normal
Definição 4.34 (Distribuição Normal). Uma variável aleatória X diz-se seguir uma distribuição
Normal de parâmetros µ e σ 2 , e escrevemos X ∼ N (µ, σ 2 ), se a sua função densidade probabilidade for dada por:
f (x) = √
(x−µ)2
1
e− 2σ2 ,
2πσ
x ∈ R, µ ∈ R, σ > 0.
A função de distribuição é dada pelo integral:
Z x
√
F (x) =
−∞
(t−µ)2
1
e− 2σ2 dt,
2πσ
para o qual não existe solução analítica. É assim necessário recorrer a métodos numéricos para
obter os valores desta função.
1.0
Função de distribuição normal
0.4
Função densidade normal
µ=0, σ=1
µ=0, σ=1.5
0.2
−4
−2
0
2
4
0.0
0.0
0.1
0.4
0.2
0.6
0.3
0.8
µ=0, σ=1
µ=0, σ=1.5
x
−4
−2
0
2
4
x
Figura 4.6: Função densidade (esquerda) e função de distribuição (direita) de uma v.a. N (µ, σ).
Observações:
• Esta distribuição é também conhecida pelo nome de Gaussiana ou distribuição de Gauss.
• Quando µ = 0 e σ = 1, a v.a. toma o nome de Normal reduzida. Neste caso é costume
representar por φ e Φ , respectivamente, a função densidade e função de distribuição.
• A distribuição Normal é simétrica em torno de µ.
Proposição 4.35 (Valor médio e Variância). Seja a v.a. X ∼ N (µ, σ 2 ). Então
E(X) = µ
e
V (X) = σ 2 .
Teorema 4.36. Seja X ∼ N (µ, σ 2 ). Resulta que,
Z=
X −µ
∼ N (0, 1).
σ
36
CAPÍTULO 4. PRINCIPAIS DISTRIBUIÇÕES
Teorema 4.37. Se X ∼ N (µ, σ 2 ) e a, b são constantes reais, com a 6= 0, então
Y = aX + b ∼ N (aµ + b, a2 σ 2 ).
Teorema 4.38. Sejam X1 , X2 , . . . , Xn , n variáveis aleatórias independentes com distribuições
Xi ∼ N µi , σi2 , i = 1, 2, . . . , n. Considerando as constantes reais a1 , a2 , . . . , an , com algum
ai 6= 0, temos que:
Y = a1 X1 + . . . + an Xn ∼ N a1 µ1 + . . . + an µn , a21 σ12 + . . . + a2n σn2 .
|
{z
}
=µY
{z
|
}
2
=σY
Note que:
µY
σY2
= E(Y ) = E
= V (Y ) = V
n
X
i=1
n
X
n
X
i=1
n
X
ai Xi =
ai Xi =
i=1
4.2.5
ai E (Xi ) =
a2i V (Xi ) =
n
X
i=1
n
X
i=1
a i µi
a2i σi2
i=1
Distribuição do Qui Quadrado
Definição 4.39 (Distribuição do Qui Quadrado). Uma variável aleatória X diz-se seguir uma
distribuição Qui-quadrado com n graus de liberdade, e escrevemos X ∼ χ2n , se a sua função
densidade probabilidade for dada por:
f (x) =


1
e−x/2 xn/2−1 ,
Γ(n/2)2n/2
x>0

0,
x≤0
,
onde Γ representa a função Gama, introduzida em (4.1).
1.0
Função de distribuição do Qui Quadrado
1.0
Função densidade do Qui Quadrado
0.6
0.4
0.2
0
1
2
x
3
4
0.0
0.0
0.2
0.4
0.6
0.8
n=1
n=3
0.8
n=1
n=3
0
1
2
3
4
x
Figura 4.7: Função densidade (esquerda) e função de distribuição (direita) de uma v.a. χ2n .
37
4.2. DISTRIBUIÇÕES CONTÍNUAS
Proposição 4.40. Considere a v.a. X ∼ χ2n . Então,
E(X) = n,
e
V (X) = 2n.
Teorema 4.41. Sejam X1 , X2 , . . . , Xn v.a.’s independentes com distribuição Normal Reduzida.
Então,
Xi2 ∼ χ21 ,
e
Y = X12 + X22 + . . . + Xn2 ∼ χ2n .
4.2.6
Distribuição t de Student
Definição 4.42 (Distribuição t de Student). Uma v.a. T diz-se ter distribuição t de Student
com n graus de liberdade, e escreve-se T ∼ tn , se a sua função densidade probabilidade é dada
por:
Γ
f (t) =
Γ
n
2
n+1
2
√
nπ
1+
t2 −
n
(n+1)
2
t ∈ R.
,
1.0
Função de distribuição
0.4
Função densidade
n=1
n=3
0.2
−4
−2
0
2
4
0.0
0.0
0.1
0.4
0.2
0.6
0.3
0.8
n=1
n=3
−4
−2
x
0
2
4
x
Figura 4.8: Função densidade (esquerda) e função de distribuição (direita) de uma v.a. tn .
Proposição 4.43 (Valor médio e Variância). Seja X ∼ tn . Então,
n
E(X) = 0, n > 1,
e
V (X) =
, n > 2.
n−2
Teorema 4.44. Sejam X ∼ N (0, 1) e Y ∼ χ2n , com X e Y independentes. Então a variável
aleatória,
X
T =p
,
Y /n
tem distribuição t de Student com n graus de liberdade.
38
CAPÍTULO 4. PRINCIPAIS DISTRIBUIÇÕES
Capítulo 5
Teorema Limite Central
Apresentamos neste capítulo, um dos mais importantes resultados da teoria das probabilidades e
da estatística, o Teorema Limite Central. Este teorema dá-nos a distribuição aproximada da soma
de n variáveis aleatórias independentes e identicamente distribuídas.
Teorema 5.1 (Teorema Limite Central). Seja X1 , X2 . . . , uma sucessão de variáveis aleatórias
independentes e identicamente distribuídas (i.i.d.), com valor médio µ e variância σ 2 6= 0, finitos.
Considere as variáveis aleatórias Sn e Zn , definidas por Sn =
Zn =
Pn
i=1 Xi
Sn − nµ
√
.
nσ
e,
(5.1)
Então a distribuição de Zn converge para uma distribuição Normal reduzida, quando n → +∞,
isto é,
Zn =
Sn − nµ a
√
∼ N (0, 1).
nσ
Observação: Se no quociente da equação (5.1), que define Zn , dividirmos tanto o numerador
como o denominador por n, obtemos
Zn =
√ Xn − µ
n
,
σ
onde X n representa a média Sn /n. O Teorema Limite Central pode assim também ser enunciado
em relação à média das variáveis aleatórias Xi , em vez da soma, Sn .
Observação: O Teorema Limite Central não indica nada sobre a velocidade de convergência de
Zn para a distribuição N (0, 1). Essa velocidade de convergência depende da distribuição das
v.a.’s Xi . Na prática, este teorema usa-se muitas vezes quando n ≥ 30 (embora este valor nem
sempre garanta uma boa aproximação).
Exemplo 5.2. Num estudo sobre vendas num hipermercado, concluiu-se que a procura diária de
arroz (em Kg) é uma v.a. com valor médio 40Kg e desvio-padrão 5Kg. Tendo sido encomendado
14.500Kg de arroz para venda venda no próximo ano, qual a probabilidade deste stock cobrir a
procura de arroz nesse período? (Considere-se um ano com 364 dias).
39
40
CAPÍTULO 5. TEOREMA LIMITE CENTRAL
Resolução: Seja Xi = procura de arroz no dia i, i = 1, 2, . . . , 364 e admitamos que estas v.a.’s
são i.i.d.. Sabemos que:
E (Xi ) = 40Kg, V (Xi ) = 25Kg 2 ,
i = 1, 2, . . . , 364.
A procura de arroz durante um ano será S364 =
364
X
Xi e queremos calcular P (S364 ≤ 14.500).
i=1
Ignoramos qual a distribuição de S364 , mas como se trata de uma soma de um grande número de
v.a.’s i.i.d. (364 > 30), então pelo T.L.C.,
S364 − 364 × 40
S364 − 14.560 a
√
= √
∼ N (0, 1).
364 × 5
364 × 5
Assim,
S364 − 14.560
14.500 − 14.560
√
√
≤ 14.500) = P
≤
≈
364 × 5
364 × 5
≈ P (Z ≤ −0.63) = Φ (−0.63) = 1 − Φ (0.63) = 1 − 0.7357 = 0.2643.
P (S364
Conclusão: “É recomendável comprar mais arroz!”
Corolário 5.3. Seja X uma v.a. com distribuição Binomial de parâmetros n e p. Se n ≥ 30 e p
tal que np > 5 e n(1 − p) > 5, então:
a
X ∼ N (np, np(1 − p)).
Exemplo 5.4. Considere-se a v.a. X ∼ Bin (100, 0.1). Calculemos P (X = 10) Como n =
100 ≥ 30, np = 100 × 0.1 = 10 > 5 e n(1 − p) = 100 × 0.9 = 90,
P (X = 10) = P (X ≤ 10) − P (X ≤ 9) ≈ Φ
10−10
3
−Φ
9−10
3
= Φ(0) − Φ(−0.33) =
= 0.5 − 0.3707 = 0.1293.
Nota: O valor exacto é P (X = 10) =
100
10
90
10 0.1 0.9
= 0.1319.
Corolário 5.5. Seja X uma v.a. com distribuição Poisson de parâmetro λ. Se λ > 5, então:
a
X ∼ N (λ, λ).
Exemplo 5.6. Considere X ∼ P (230). Calculemos um valor aproximado de P (X = 241).
P (X = 241) = P (X ≤ 241) − P (X ≤ 240) ≈ P Z ≤
241−230
√
230
= Φ(0.73) − Φ(0.66) = 0.7673 − 0.7454 = 0.0219
241
Nota: O valor exacto é P (X = 241) = e−230 . 230
241! = 0.0198.
−P Z ≤
240−230
√
230
=
Capítulo 6
Estimação Pontual
6.1
Alguns conceitos importantes
Definição 6.1 (População). Uma população consiste em todas as possíveis observações de um
dado fenómeno.
Definição 6.2 (Amostra). Uma amostra é um subconjunto da população.
Observação: Nos métodos estatísticos, que iremos estudar, a amostra recolhida deve ser representativa da população. Caso isso não aconteça, podemos retirar conclusões erradas. É assim
conveniente escolher os elementos da amostra de forma aleatória, ou seja, trabalhar com uma
amostra aleatória.
Definição 6.3 (Amostra aleatória). Vamos admitir que cada valor observado xi é a realização
da variável aleatória Xi , com função de distribuição F . O vector (X1 , X2 , . . . , Xn ) constitui uma
amostra aleatória se e só se as n variáveis aleatórias são independentes e têm todas a mesma
distribuição. Os valores que se obtêm por concretização da amostra aleatória são representados
por (x1 , x2 , . . . , xn ).
Definição 6.4 (Estatística).
Uma estatística é uma qualquer função da amostra aleatória,
(X1 , X2 , . . . , Xn ), que não depende de qualquer parâmetro desconhecido.
Observação: Da definição anterior, conclui-se que uma estatística é uma variável aleatória. Logo
qualquer estatística tem função de distribuição. A essa função de distribuição dá-se o nome de
distribuição por amostragem da estatística.
Exemplo 6.5 (Estatística). Dada uma amostra aleatória (X1 , X2 , . . . , Xn ), de dimensão n, são
estatísticas: A média amostral (X), a variância amostral (S 2 ), o mínimo da amostra, o máximo
da amostra, a mediana, os quartis ou a própria amostra.
41
42
CAPÍTULO 6. ESTIMAÇÃO PONTUAL
Definição 6.6 (Estimador pontual e estimativa pontual). Seja (X1 , X2 , . . . , Xn ) uma amostra
aleatória de dimensão n duma população com função de distribuição F (x|θ), com parâmetro
desconhecido θ. A estatística Θ̂ = h(X1 , X2 , . . . , Xn ) é um estimador pontual de θ. Depois da
amostra ter sido recolhida, o valor particular de θ̂ = h(x1 , x2 , . . . , xn ), é designado estimativa
pontual de θ.
Tabela 6.1: Alguns dos parâmetros populacionais que interessam estimar e respectivos estimadores
pontuais.
Parâmetro Populacional
Estimador Pontual
Média populacional
Média amostral
µ
X=
Variância populacional
σ2
S2 =
1
n−1
Xi
i=1
n
P
(Xi − X)2
i=1
Desvio padrão amostral
s
S=
Proporção populacional
p
6.2
n
P
Variância amostral
Desvio padrão populacional
σ
1
n
1
n−1
n
P
(Xi − X)2
i=1
Proporção amostral
P̂ = X
n
Propriedades dos estimadores
Um dos principais objectivos da Estatística é a estimação de parâmetros desconhecidos, como
por exemplo a média da população, a partir de uma amostra. Como muitas vezes temos vários
estimadores para o mesmo parâmetro, qual devemos utilizar? É aconselhável a escolha do estimador que melhor satisfaça um critério de eficiência. Para definir o critério de eficiência que
iremos utilizar, precisamos das seguintes definições:
Definição 6.7 (Estimador centrado e assintoticamente centrado). Um estimador pontual,
Θ̂, diz-se centrado para o parâmetro θ se e só se
E(Θ̂) = θ.
Caso E(Θ̂) 6= θ, o estimador diz-se enviesado. A diferença b(Θ̂) = E(Θ̂) − θ corresponde ao
valor do enviesamento ou viés de Θ̂. Se E(Θ̂) 6= θ, e limn→∞ E(Θ̂) = θ, diz-se que o estimador
é assintoticamente centrado.
43
6.2. PROPRIEDADES DOS ESTIMADORES
Definição 6.8 (Erro Padrão de um estimador). Dado um estimador pontual Θ̂, centrado,
define-se o seu erro padrão, SEΘ̂ , por
SEΘ̂ =
q
V (Θ̂).
Caso o erro padrão envolva parâmetros desconhecidos, que possam ser estimados a partir dos
valores da amostra, a substituição destes valores estimados no erro padrão produz o chamado
d .
erro padrão estimado, denotado por SE
Θ̂
Definição 6.9 (Eficiência). Sejam Θ̂1 e Θ̂2 dois estimador pontuais, centrados para θ. Diz-se
que Θ̂1 é mais eficiente que Θ̂2 , se e só se, SEΘ̂1 ≤ SEΘ̂2 .
Exemplo 6.10 (Cálculo do erro padrão do estimador da média da população - µ). Seja
(X1 , X2 , . . . , Xn ) uma amostra aleatória de uma população com valor médio µ e variância σ 2 .
Como,
E(X) = E
n
1 X
n
Xi =
i=1
n
n
1X
1
1X
E(Xi ) =
µ = nµ = µ,
n i=1
n i=1
n
concluímos que X é estimador centrado do valor médio da população, µ. Temos ainda,
n
1X
Xi
n i=1
V (X) = V
=
1
n2
ou seja, SEX =
n
X
!
1
= 2V
n
V (Xi ) =
i=1
1
n2
n
X
i=1
n
X
!
Xi
=
(Xi v.a.0 s independentes)
i=1
σ2 =
1
σ2
2
nσ
=
,
n2
n
σ
V (X) = √ .
n
q
O próximo resultado é importante porque indica-nos o limite inferior da variância de um
estimador centrado. Um estimador com variância igual ao valor mínimo é mais eficiente do que
qualquer outro estimador centrado.
Definição 6.11 (Limite inferior de Cramér-Rao). Seja (X1 , X2 , . . . , Xn ) uma amostra aleatória
retirada de uma população com função densidade f (x|θ) (ou função de probabilidade P (X|θ)),
satisfazendo as condições de regularidade (f duas vezes diferenciável e com suporte independente
de θ). Dado um estimador pontual Θ̂, centrado para θ,
V (Θ̂) ≥
1
,
nI(θ)
com I(θ) = −E
∂ 2 ln f (X|θ)
∂θ2
.
44
CAPÍTULO 6. ESTIMAÇÃO PONTUAL
Exemplo 6.12 (Limite inferior de Cramér-Rao do modelo Poisson). Seja (X1 , X2 , . . . , Xn )
uma amostra aleatória retirada de uma população com distribuição Poisson de parâmetro λ. Como
ln[P (X|λ)] = −λ + X ln λ − ln(X!), resulta que
∂ ln P (X|λ)
X
= −1 + ;
∂λ
λ
∂ 2 ln P (X|λ)
1
= − 2.
2
∂λ
λ
e
Logo,
I(λ) = −E
∂ 2 ln P (X|λ) ∂λ2
Conclui-se assim que, V (λ̂) ≥
1
.
λ2
=
1
nI(λ)
= nλ , para qualquer estimador λ̂, centrado para λ.
Definição 6.13 (Estimador consistente). Um estimador pontual Θ̂, centrado para θ, diz-se
consistente se
lim V (Θ̂) = 0.
n→∞
Exemplo 6.14 (Consistência da Média amostral). Seja (X1 , X2 , . . . , Xn ) uma amostra aleatória
de uma população com valor médio µ e variância σ 2 . Sabemos que X é estimador centrado do
σ2
n .
valor médio da população, µ e V (X) =
lim V (Θ̂) =
n→∞
Como ,
σ2
= 0,
n
concluímos que X é consistente para µ.
6.3
Método dos Momentos
Definição 6.15 (Método dos Momentos). Seja (X1 , X2 , . . . , Xn ) uma amostra aleatória, retirada de uma população cuja distribuição depende de k parâmetros desconhecidos, θ1 , θ2 , . . . , θk .
O método dos momentos consiste em utilizar os momentos da amostra para estimar os respectivos
momentos da população, e consequentemente os parâmetros desconhecidos. Os estimadores de
momentos, θ̂1 , θ̂2 , . . . , θ̂k , são os que resultam da resolução do sistema de k equações a k incógnitas,


m1 = M1






m2 = M2


m3 = M3
..
.








 m
k
mj = E(X j )
onde
Mj =
1
n
n
P
i=1
Xij
(m1 = E(X))
(M1 = X)
= Mk
Observação: Caso alguma das k equações não contenha qualquer informação sobre os parâmetros, essa equação deve ser substituída pela equação µj = Mj , com j > k.
45
6.3. MÉTODO DOS MOMENTOS
Inconvenientes:
1. Por vezes não existe uma escolha unívoca;
2. Por vezes a solução é inadmissível;
Exemplo 6.16 (Estimador dos momentos do parâmetro λ, do modelo Poisson). Considere
uma população com distribuição P (λ). O estimador dos momentos de λ é a solução da equação:
⇔
E(X) = X
λ = X.
O estimador dos momentos de λ é, λ̂ = X.
Exemplo 6.17 (Estimador dos momentos de σ 2 do modelo N (0, σ 2 )). Seja (X1 , X2 , . . . , Xn )
uma amostra aleatória, retirada de uma população com distribuição Normal de valor médio 0
(conhecido) e variância σ 2 (desconhecida). A solução da primeira equação é:
⇔
E(X) = X
0 = X.
Contudo, como esta primeira equação não contém o parâmetro que interessa estimar, devemos
considerar a segunda equação:
E(X 2 ) = M2
E(X 2 ) = V (X) + E 2 (X) = M2
⇔
O estimador dos momentos de σ 2 é, σ̂ 2 =
n X2
P
i
i=1
n
⇔
σ 2 = M2 .
.
Exemplo 6.18 (Estimadores dos momentos dos parâmetro a e b, do modelo Uniforme).
Considere uma população com distribuição U (a, b). Os estimadores dos momentos de a e b são
os que resultam da resolução do sistema de equações:
(
E(X) = X
m2 = M2
⇔


a+b
2
=X
2
2
 (b−a) + a+b = M2
12
2
q

 a = X − 3(M − X 2 )
2
q
⇔
,
2

b=X+
ou seja os estimadores dos momentos de a e b são,
â = X −
q
2
3(M2 − X )
e b̂ = X +
q
2
3(M2 − X );
3(M2 − X )
46
CAPÍTULO 6. ESTIMAÇÃO PONTUAL
6.4
Método da máxima verosimilhança
Este método é um pouco mais complicado que o anterior. Contudo, os estimadores obtidos por
este método têm melhores propriedades teóricas. O método é apresentado apenas para populações
cuja distribuição tem apenas um parâmetro desconhecido.
Seja (X1 , X2 , . . . , Xn ) uma amostra aleatória, isto é, um conjunto de n v.a.’s i.i.d. com função
densidade comum f (x|θ) onde θ é um parâmetro desconhecido. A função densidade conjunta da
amostra aleatória é
f (x1 , x2 , . . . , xn |θ) =
n
Y
f (xi |θ).
i=1
Observação: Caso a população tenha distribuição discreta, devemos substituir a função densidade pela função de probabilidade.
Definição 6.19 (Função de verosimilhança e log-verosimilhança). Depois da amostra ser
observada, os valores x1 , x2 , . . . , xn são conhecidos e podemos considerar que a função anterior
depende apenas de θ. Esta função é designada função de verosimilhança e costuma representar-se
por:
L(θ) = L(θ|x1 , x2 , . . . , xn ) =
n
Y
f (xi |θ).
i=1
É geralmente mais fácil trabalhar com a função log-verosimilhança, isto é, com o logaritmo da
função verosimilhança:
l(θ) = ln L(θ) =
n
X
ln f (xi |θ).
i=1
Exemplo 6.20 (Função log-verosimilhança do modelo de Poisson(λ)). Considere uma população com distribuição Poisson com parâmetro desconhecido λ. Então, observada a amostra
(x1 , x2 , . . . , xn ), e admitindo que xi ∈ N0 , i = 1, 2 . . . , n, a função log-verosimilhança é:
l(λ) = ln L(λ) =
n
X
i=1
ln e
−λ λ
xi xi !
= −nλ +
n
X
i=1
!
xi ln λ −
n
X
ln(xi !).
i=1
Definição 6.21 (Método da máxima verosimilhança:). O estimador de máxima verosimilhança
de θ é obtido por maximização da função verosimilhança, ou equivalentemente da função logverosimilhança, com respeito a θ. O estimador de máxima verosimilhança é denotado por θ̂M LE ,
mas para simplificação da notação representa-se apenas por θ̂. Então:
max l(θ) = l(θ̂)
θ
47
6.5. DISTRIBUIÇÕES POR AMOSTRAGEM
Se L(θ), ou equivalentemente l(θ), é regular (duas vezes diferenciável e com suporte independente de θ) o máximo é obtido por derivação, isto é, é obtido através da resolução de:
∂ l(θ)
= 0,
∂θ
e
∂ 2 l(θ)
< 0.
∂θ2
Exemplo 6.22 (Estimador de máxima verosimilhança do parâmetro do modelo de Poisson).
Considere a função log-verosimilhança do exemplo 6.20. Como l(λ) é regular, o estimador de
máxima verosimilhança é a solução da equação
∂l(λ)
=0
∂λ
⇔
−n +
n
1X
xi = 0
λ i=1
⇔
λ=
n
X
xi /n,
i=1
isto é, o estimador de máxima verosimilhança de λ é λ̂ = X.
Propriedades dos estimadores de máxima verosimilhança
1. Os estimadores de máxima verosimilhança são assintoticamente centrados, isto é,
lim E(θ̂) = θ;
n→∞
2. Os estimadores de máxima verosimilhança são consistentes;
3. Em condições gerais de regularidade, o estimador de máxima verosimilhança de θ
1
;
tem distribuição assintoticamente normal de valor médio θ e variância nI(θ)
4. A propriedade da invariância é válida para qualquer estimador de máxima verosimilhança, isto é, se θ̂ é um estimador de máxima verosimilhança de θ e se β = g(θ)
é uma função biunívoca de θ, então o estimador de máxima verosimilhança de β
é β̂ = g(θ̂);
6.5
Distribuições por Amostragem
Nesta secção vamos estudar a distribuição por amostragem dos estimadores pontuais da Tabela
6.1.
6.5.1
Distribuição por amostragem da média amostral, X
Suponhamos que foi seleccionada uma amostra aleatória de dimensão n, (X1 , X2 , . . . , Xn ), de
uma população de média µ e variância σ 2 . A distribuição por amostragem de X pode ser obtida
sob diversas condições:
48
CAPÍTULO 6. ESTIMAÇÃO PONTUAL
1. Suponhamos a população tem distribuição Normal e que o valor da variância da população é conhecido. Consequentemente, tendo em conta as propriedades da distribuição
normal, X ∼ N (µ, σ 2 /n), ou seja,
Z=
X −µ
√ ∼ N (0, 1).
σ/ n
(6.1)
2. Suponhamos a população tem distribuição Normal e que o valor da variância da
população é desconhecido. Vamos aqui usar S 2 para estimar σ 2 . Nestas condições,
Z=
X −µ
√ ∼ N (0, 1)
σ/ n
e
(n − 1)S 2
∼ χ2n−1 .
σ2
Como a população tem distribuição Normal, podemos assegurar que Z e S 2 são v.a. independentes (demonstração fora do âmbito desta disciplina). Pelo Teorema 4.44,
X−µ
√
X −µ
σ/ n
√ =r
T =
∼ tn−1 .
S/ n
(n−1)S 2 /σ 2
(6.2)
(n−1)
3. Suponhamos que a população tem distribuição não-Normal e que o valor da variância
da população é conhecida, mas a dimensão da amostra, n, é superior ou igual a 30.
Neste caso, a distribuição por amostragem da média amostral pode ser aproximada pela
distribuição Normal reduzida, justificado através do Teorema Limite Central:
Z=
X −µ a
√ ∼ N (0, 1).
σ/ n
(6.3)
4. Finalmente, consideremos que seleccionámos uma amostra aleatória de uma população
com distribuição não-Normal, com variância da população desconhecida e que temos
um tamanho de amostra n superior ou igual a 30. Tal como no caso anterior,
Z=
X −µ a
√ ∼ N (0, 1).
σ/ n
Como σ 2 não é conhecido, mas a dimensão da amostra é grande então S ' σ, e podemos
substituir, na expressão anterior, σ por S (desvio padrão), isto é,
Z=
X −µ a
√ ∼ N (0, 1).
S/ n
Observação: Os resultados das equações (6.3) e (6.4) são válidos para qualquer
população. Contudo, o modelo Normal é excluído porque conhecemos a distribuição
exacta da média amostral: equações (6.1) e (6.2).
(6.4)
49
6.5. DISTRIBUIÇÕES POR AMOSTRAGEM
6.5.2
Distribuição por amostragem da diferença de médias amostrais, X 1 − X 2
Aqui consideramos apenas um de muitos casos possíveis. Supondo que foram seleccionadas, de
forma independente, duas amostras aleatórias de dimensões n1 e n2 , respectivamente, de duas
populações Normais independentes com variâncias conhecidas dadas, respectivamente, por σ12 e
σ22 . Sejam X 1 e X 2 as médias das duas amostras aleatórias. Neste contexto, a distribuição por
amostragem de X 1 − X 2 é ainda Normal, por ser a combinação linear de variáveis aleatórias
normais independentes:
Z=
6.5.3
(X 1 − X 2 ) − (µ1 − µ2 )
r
σ12
n1
+
∼ N (0, 1).
σ22
n2
Distribuição por amostragem da variância amostral, S 2
Suponhamos que foi seleccionada uma amostra aleatória de dimensão n, (X1 , X2 , . . . , Xn ), de
uma população Normal de média µ, desconhecida, e variância σ 2 . Neste contexto, a distribuição por amostragem de S 2 =
X2 =
6.5.4
1
n−1
Pn
i=1
Xi − X
2
é dada por:
(n − 1)S 2
∼ χ2n−1 .
σ2
Distribuição por amostragem da proporção, P̂
Admita que os elementos de determinada população possuem uma dada característica, com uma
certa probabilidade p desconhecida, independentemente uns dos outros. Suponhamos que se
selecciona uma amostra aleatória de n elementos desta população. Se X denotar o número
de elementos da amostra aleatória que possuem a referida característica, sabemos que X ∼
Bin(n, p). Se o tamanho da amostra for suficientemente grande, o Teorema Limite Central
justifica que:
X − np
a
∼ N (0, 1).
Z=p
np(1 − p)
Como p pode ser estimado pontualmente pela proporção de elementos da amostra possuem a
referida característica, P̂ =
Z=p
X
n,
a distribuição por amostragem aproximada de P̂ é
P̂ − p
a
∼ N (0, 1).
p(1 − p)/n
50
CAPÍTULO 6. ESTIMAÇÃO PONTUAL
Tabela 6.2: Distribuições por amostragem
Estimador
População
σ 2 conhecida
Distribuição
X−µ
√
σ/ n
Z=
Normal de média µ
σ 2 desconhecida
T =
X
X−µ
√
S/ n
∼ tn−1
Pop. não-Normal
σ 2 conhecida
Z=
a
X−µ
√ ∼
σ/ n
N (0, 1)
de média µ e n ≥ 30
σ 2 desconhecida
Z=
a
X−µ
√ ∼
S/ n
N (0, 1)
Z=
(X 1−X
q 2 )−(µ1−µ2 )
2 Populações independentes,
X 1 −X 2
∼ N (0, 1)
σ2
σ2
1+ 2
n1
n2
N (µ1 , σ12 ) e N (µ2 , σ22 ),
com σ12 e σ22 conhecidas
P̂
Qualquer população e n grande
S2
Normal de média µ desconhecida
∼ N (0, 1)
Z=√
a
P̂ −p
∼
p(1−p)/n
X2 =
(n−1)S 2
σ2
N (0, 1)
∼ χ2n−1
Capítulo 7
Estimação por Intervalo de Confiança
A indicação de um único valor como estimativa, de um parâmetro θ, não nos dá informação
sobre a precisão desse valor. Por isso, em muitas situações, interessa-nos dar uma medida desse
erro. Assim, em vez de se indicar a sua estimativa pontual, é preferível indicar que o parâmetro a
estimar estará provavelmente no intervalo ]t1 , t2 [, onde os extremos t1 e t2 dependem do valor
da estimativa pontual desse parâmetro.
Definição 7.1 (Intervalo Aleatório). Seja (X1 , X2 , . . . , Xn ) uma amostra aleatória de uma
população com função de distribuição F . Considere as estatísticas
T1 (X1 , X2 , . . . , Xn )
e
T2 = (X1 , X2 , . . . , Xn ),
tais que P (T1 < θ < T2 ) = 1 − α, onde α ∈]0, 1[ não depende de θ. Então ]T1 , T2 [ é um
intervalo aleatório para θ.
Definição 7.2 (Intervalo de Confiança). Seja (x1 , x2 , . . . , xn ) uma realização da amostra
aleatória e sejam
t1 = T1 (x1 , x2 , . . . , xn )
e
t2 = T2 (x1 , x2 , . . . , xn ),
os valores das estatísticas T1 e T2 (introduzidas na Definição 7.1). Ao intervalo ]t1 , t2 [ chamamos
intervalo de confiança (1 − α) × 100% para θ. O valor (1 − α) representa o nível (ou coeficiente)
de confiança do intervalo e α o nível de significância. Normalmente são usados níveis de confiança
superiores a 90%.
Observações:
• Diferentes amostras produzirão eventuais valores distintos θ̂ e consequentemente diferentes
extremos t1 e t2 .
• Os valores t1 e t2 são denominados limites de confiança inferior e superior, respectivamente.
51
52
CAPÍTULO 7. ESTIMAÇÃO POR INTERVALO DE CONFIANÇA
• A amplitude de um intervalo de confiança, t2 − t1 , é uma importante medida da qualidade
da informação fornecida através da amostra.
Definição 7.3 (Variável Pivot ou Fulcral). Seja (X1 , X2 , . . . , Xn ) uma amostra aleatória, retirada de uma população com função de distribuição F de parâmetro θ. A função T (X1 , X2 , . . . , Xn )
é uma variável pivot, ou fulcral, se a sua distribuição for independente de θ.
Observação: As variáveis aleatórias Z, T e X 2 , apresentadas na Tabela 6.2, são variáveis Pivot.
Definição 7.4 (Método de determinação de um Intervalo de Confiança a partir de uma
variável Pivot). Seja (X1 , X2 , . . . , Xn ) uma amostra aleatória, retirada de uma população com
função de distribuição F , com parâmetro θ, e seja T uma variável Pivot.
• Dado o nível de confiança (1 − α), é necessário determinar os valores c1 e c2 tais que
P (c1 < T < c2 ) = 1 − α.
• Caso se verifique,
c1 < T < c2
⇔
T1 (X1 , X2 , . . . , Xn ) < θ < T2 (X1 , X2 , . . . , Xn ),
então também se pode garantir que
P (T1 (X1 , X2 , . . . , Xn ) < θ < T2 (X1 , X2 , . . . , Xn )) = 1 − α.
Logo, o intervalo aleatório para θ é ]T1 (X1 , X2 , . . . , Xn ), T2 (X1 , X2 , . . . , Xn )[ = ]T1 , T2 [.
• Observada a amostra (x1 , x2 , . . . , xn ), o intervalo de confiança para θ é dado por ]t1 , t2 [,
onde t1 = T1 (x1 , x2 , . . . , xn ) e t2 = T2 (x1 , x2 , . . . , xn ).
7.1
7.1.1
Intervalo de Confiança para a média da população, µ
População Normal com variância conhecida
Suponhamos que seleccionámos uma amostra aleatória (X1 , X2 , . . . , Xn ) de uma população Normal, de variância σ 2 conhecida, com a qual pretendemos construir um intervalo de confiança
(1 − α) × 100% para µ.
• Escolha da estatística pivot:
Z=
X −µ
√ ∼ N (0, 1);
σ/ n
7.1. INTERVALO DE CONFIANÇA PARA A MÉDIA DA POPULAÇÃO, µ
53
• Determinação de c1 e c2 : Seja za um valor tal que P (Z > za ) = a. Escolhemos c1 =
z1−α/2 = −zα/2 e c2 = zα/2 , como indicado na Figura 7.1. Esta escolha não é casual.
Quando c1 = −c2 obtemos o intervalo de menor amplitude. O valor zα/2 é obtido através
da resolução da equação:
P −zα/2 < Z < zα/2 = 1 − α ⇔ P (Z < zα/2 ) − P (Z ≤ −zα/2 ) = 1 − α ⇔
(7.1)
0.2
0.3
0.4
Φ(zα/2 ) − Φ(−zα/2 ) = 1 − α ⇔ Φ(zα/2 ) = 1 − α/2 ⇔ zα/2 = Φ−1 (1 − α/2)
0.0
0.1
1−α
− zα
2
0
zα
2
Figura 7.1: Intervalo aleatório da variável pivot Z.
• Determinação dos extremos do intervalo aleatório:
X −µ
σ
σ
√ < zα/2 ⇔ −zα/2 √ < X − µ < zα/2 √
σ/ n
n
n
σ
σ
σ
σ
√ − X < −µ < zα/2 √ − X ⇔ X − zα/2 √ < µ < X + zα/2 √
n
n
n
n
− zα/2 <
⇔ − zα/2
Logo,
σ
σ P − zα/2 < Z < zα/2 = P X − zα/2 √ < µ < X + zα/2 √
= 1 − α.
n
n
• Assim, tendo uma amostra concreta (x1 , x2 , . . . , xn ), o intervalo de confiança (1 − α) × 100
para µ é:
i
σ
σ h
IC(1−α)×100% (µ) ≡ x − zα/2 √ ; x + zα/2 √ .
n
n
Exemplo 7.5. Considere a população do peso das formigas Solenopsis, medido em décimas de
grama, que sabemos ter distribuição Normal com média µ e variância σ 2 = 22 , X ∼ N (µ, 22 ).
Desta população observámos a amostra de 4 pesos, (8, 13, 9, 8.5), a qual usámos para obter uma
54
CAPÍTULO 7. ESTIMAÇÃO POR INTERVALO DE CONFIANÇA
estimativa de µ, x = 9.625dg. Queremos agora determinar limites inferior e superior de um
intervalo de confiança a 95% para µ.
Resolução: Seja X a média amostral da amostra de dimensão 4, (X1 , X2 , X3 , X4 ). Como a
população tem distribuição Normal, e a variância é conhecida, vamos considerar a estatística pivot
Z=
X−µ
√ ,
σ/ n
Z=
cuja distribuição por amostragem foi obtida no capítulo anterior:
X −µ
X −µ
√ ∼ N (0, 1).
√ =
σ/ n
2/ 4
0.2
0.3
0.4
Seja z0.025 um valor tal que P (−z0.025 < Z < z0.025 ) = 0.95, conforme a Figura 7.2 ilustra. Para
0.0
0.1
0.95
− z0.025
0
z0.025
Figura 7.2: Intervalo aleatório da variável pivot Z.
determinar o valor de z0.025 , é necessário efectuar os seguintes cálculos:
P (−z0.025 < Z < z0.025 ) = 0.95 ⇔ P (Z < z0.025 ) − P (Z ≤ −z0.025 ) = 0.95 ⇔
Φ(z0.025 ) − Φ(−z0.025 ) = 0.95 ⇔ Φ(z0.025 ) = 0.975 ⇔ z0.025 = Φ−1 (0.975) ≈ 1.96
Assim,
!
P (−1.96 < Z < 1.96) = 0.95 ⇔ P
X −µ
√ < 1.96
−1.96 <
2/ 4
= 0.95 ⇔
P −1.96 × 1 < X − µ < 1.96 × 1 = 0.95 ⇔
P −X − 1.96 < −µ < −X + 1.96 = 0.95 ⇔
P X − 1.96 < µ < X + 1.96 = 0.95
i
h
Logo, o intervalo aleatório, para µ, com 95% de confiança é X − 1.96; X + 1.96 . Concretizando
este intervalo para a amostra observada, (x1 , x2 , x3 , x4 ) = (8, 13, 9, 8.5), obtemos o intervalo de
confiança a 95% para µ:
IC95% (µ) = ]x − 1.96 ; x + 1.96[ = ]9.625 − 1.96 ; 9.625 + 1.96[ =]7.665 ; 11.585[.
7.1. INTERVALO DE CONFIANÇA PARA A MÉDIA DA POPULAÇÃO, µ
55
Observação: Vejamos agora o que sucede aumentando a confiança do intervalo para 99%. Como
Z0.005 ≈ 2.58,
X−µ
√ < 2.58 = 0.99 ⇔
P (−Z0.005 < Z < Z0.005 ) = 0.99 ⇔ P −2.58 < 2/
4
√
√ P X − 2.58 × 2/ 4 < µ < X + 2.58 × 2/ 4 = 0.99
Assim, IC99% (µ) = ]x − 2.58; x + 2.58[=]9.625 − 2.58; 9.625 + 2.58 =]7.045; 12.205[.
Concluímos que quando aumentamos o nível de confiança, também aumentamos a sua amplitude!
7.1.2
População Normal com variância desconhecida
Seja (X1 , X2 , . . . , Xn ) uma amostra aleatória de uma população Normal(µ, σ 2 ), de variância σ 2
desconhecida, com a qual pretendemos construir um intervalo de confiança (1 − α) × 100% para
µ:
• Escolha da estatística pivot:
T =
X −µ
√ ∼ tn−1 .
S/ n
• Para um nível de confiança de (1−α)×100%, escolhemos de c1 = −tn−1,α/2 e c2 = tn−1,α/2 ,
como indicado na Figura 7.3.
0.0
1−α
− tn−−1::α
2
0
tn−−1::α
2
Figura 7.3: Intervalo aleatório da variável pivot T .
56
CAPÍTULO 7. ESTIMAÇÃO POR INTERVALO DE CONFIANÇA
• Determinação dos extremos do intervalo aleatório:
− tn−1,α/2 <
X −µ
√ < tn−1,α/2 ⇔
S/ n
S
S
⇔ − tn−1,α/2 √ < X − µ < tn−1,α/2 √ ⇔
n
n
S
S
⇔ − tn−1,α/2 √ − X < −µ < tn−1,α/2 √ − X ⇔
n
n
S
S
⇔ X − tn−1,α/2 √ < µ < X + tn−1,α/2 √
n
n
• Assim, obtemos o seguinte intervalo de confiança (1 − α) × 100% para µ:
i
s
s h
IC(1−α)×100% (µ) ≡ x − tn−1,α/2 √ ; x + tn−1,α/2 √ .
n
n
7.1.3
População não-Normal com variância conhecida e n > 30
Supondo que seleccionámos uma amostra aleatória de dimensão n > 30, (X1 , X2 , . . . , Xn ), de
uma população não-normal com média µ e variância conhecida σ 2 , e com a qual pretendemos
construir um intervalo de confiança (1 − α) × 100% para µ:
• Escolha da estatística pivot: Z =
X−µ
√
σ/ n
a
∼ N (0, 1).
• Determinação de c1 e c2 : De modo análogo, ao efectuado na página 53, escolhemos:
c1 = −zα/2
e c2 = zα/2 ,
com
zα/2 = Φ−1 (1 − α/2).
• Repetido as contas efectuadas na sub-secção 7.1.1, obtemos:
σ
σ = 1 − α.
P − zα/2 < Z < zα/2 = P X − zα/2 √ < µ < X + zα/2 √
n
n
• Assim, observada a amostra (x1 , x2 , . . . , xn ), obtemos o seguinte intervalo de confiança
(1 − α) × 100% para µ:
i
σ
σ h
IC(1−α)×100% (µ) ≡ x − zα/2 √ ; x + zα/2 √ .
n
n
7.1.4
População não-Normal com variância desconhecida e n > 30
Admitindo que seleccionámos uma amostra aleatória de dimensão n > 30, (X1 , X2 , . . . , Xn ), de
uma população com distribuição não-normal, com média µ e variância σ 2 , ambos desconhecidos.
Pretendemos um intervalo de confiança (1 − α) × 100% para µ. Como usamos a estatística pivot:
Z=
X −µ a
√ ∼ N (0, 1),
S/ n
57
7.1. INTERVALO DE CONFIANÇA PARA A MÉDIA DA POPULAÇÃO, µ
a determinação do intervalo de confiança para µ é feita de forma análoga ao caso anterior (substituindo σ por S).
Obtemos assim, o seguinte intervalo de confiança (aproximado) (1 − α) × 100% para µ:
i
s
s h
IC(1−α)×100% (µ) ≡ x − zα/2 √ ; x + zα/2 √ .
n
n
Exemplo 7.6 (Exame de P.E. D - 2005/06). Queremos estudar há quanto tempo residem nas
suas moradas actuais as pessoas de certa cidade na província. Uma amostra aleatória de 41
famílias revelou uma média de 35 meses de residência e um desvio padrão de 6.3 meses.
a) Qual a sua melhor estimativa do tempo médio de residência da população desta cidade?
b) Deduza um intervalo de confiança a 98% para o verdadeiro tempo médio de residência.
Justifique o seu procedimento.
Resolução:
a) Para estimar a média da população vamos usar o estimador média da amostra, X. Trata-se
do estimador da média que possui duas propriedades importantes: é centrado para µ e
consistente. Neste exercício, a estimativa do tempo médio de residência da população é
x = 35 meses.
b) Para deduzir o intervalo de confiança, vamos admitir que (X1 , X2 . . . , Xn ) é uma amostra
aleatória com n > 30. Vamos considerar a estatística pivot Z =
X−µ
√ ,
S/ n
deduzida no capítulo anterior, isto é,
0.2
0.3
0.4
X −µ a
√ ∼ N (0, 1).
S/ n
0.1
0.98
0.0
Z=
− 2.32
0
2.32
Figura 7.4: Intervalo aleatório da variável pivot Z.
cuja distribuição foi
58
CAPÍTULO 7. ESTIMAÇÃO POR INTERVALO DE CONFIANÇA
Como P (−z0.01 < Z < z0.01 ) = 0.98, onde z0.01 ≈ 2.32, como indicado na Figura 7.4, e
− z0.01 < Z < z0.01 ⇔ 2.32 <
X−µ
√
S/ n
< 2.32 ⇔ 2.32 √Sn < X − µ < 2.32 √Sn ⇔
S
S
⇔ X − 2.32 √ < µ < X + 2.32 √ ,
n
n
resulta que
S
S = 0.98.
P X − 2.32 √ < µ < X + 2.32 √
n
n
Logo o intervalo com 98% de confiança para o valor médio da população é
i
s
s h
IC98% (µ) ≡ x − 2.32 √ ; x + 2.32 √ .
n
n
Como da amostra recolhida resultou x = 35 e s = 6.3, o intervalo com 98% de confiança
para o valor médio da população é
i
6.3
6.3 h
IC98% (µ) ≡ 35 − 2.32 √ ; 35 + 2.32 √
= ]32.72 , 37.28[.
41
41
7.2
Intervalo de Confiança para a variância populacional, σ 2 , e
para o desvio padrão populacional, σ
Nesta secção, vamos deduzir um intervalo de confiança (1 − α) × 100% para a variância da
população. Consideramos o caso em que temos uma amostra aleatória (X1 , X2 , . . . , Xn ) de uma
população com distribuição Normal(µ, σ 2 ), com valor médio µ desconhecido.
• Vamos usar a estatística pivot cuja distribuição por amostragem foi apresentada no capítulo
anterior, isto é, a estatística pivot: X 2 =
(n−1)S 2
σ2
∼ χ2n−1 ;
• Para um nível de confiança de (1 − α) × 100%, escolha de c1 e c2 : A escolha dos extremos
do intervalo aleatório, c1 = χ2n−1,1−α/2 e c2 = χ2n−1,α/2 , é feita de acordo com a Figura
7.5.
Para determinar estes valores é necessário efectuar as operações:
α
α
⇔ c1 = Fχ−1
,
2
n−1 2
2
α
α
α
−1
2
2
P (X > c2 ) =
⇔ P (X ≤ c2 ) = 1 −
⇔ c2 = Fχ2
1−
,
n−1
2
2
2
P (X 2 < c1 ) =
onde Fχ−1
2
n−1
α
2
Qui Quadrado.
e Fχ−1
2
n−1
1−
α
2
podem ser obtidos numa tabela de quantis da distribuição
7.2. INTERVALO DE CONFIANÇA PARA A VARIÂNCIA POPULACIONAL, σ 2 , E PARA O DESVIO
PADRÃO POPULACIONAL, σ
59
1−α
α 2
0.0
α 2
χ2n−−1::1−−α 2
0
χ2n−−1::α 2
Figura 7.5: Intervalo aleatório da variável pivot X 2 .
• Determinação dos extremos do intervalo de confiança: Como,
χ2n−1,1−α/2
2
<X <
χ2n−1,α/2
χ2n−1,1−α/2
⇔
(n − 1)S 2
χ2n−1,α/2
1
< 2 <
⇔
σ
(n − 1)S 2
(n − 1)S 2
(n − 1)S 2
2
<
σ
<
,
χ2n−1,α/2
χ2n−1,1−α/2
concluímos que
P χ2n−1,1−α/2 < X 2 < χ2n−1,α/2 = P
(n − 1)S 2
χ2n−1,α/2
< σ2 <
(n − 1)S 2 = 1 − α.
χ2n−1,1−α/2
• Assim, observada a amostra (x1 , x2 , . . . , xn ), e calculada a respectiva variância amostral,
s2 , o intervalo de confiança para σ 2 é:
#
"
(n − 1)s2
(n − 1)s2
IC(1−α)×100% (σ ) =
;
.
χ2n−1,α/2
χ2n−1,1−α/2
2
Observação: Como
P
(n − 1)S 2
χ2n−1,α/2
v
u
v
u
u (n − 1)S 2
u (n − 1)S 2 (n − 1)S 2 < σ2 < 2
=P t 2
<σ<t 2
= 1 − α.
χn−1,1−α/2
χn−1,α/2
χn−1,1−α/2
podemos assim apresentar o seguinte intervalo de confiança para σ:
v
u
u (n − 1)s2

IC(1−α)×100% (σ) ≡ t 2
;
χn−1,α/2

v
u
u (n − 1)s2
.
t
2
χn−1,1−α/2
60
CAPÍTULO 7. ESTIMAÇÃO POR INTERVALO DE CONFIANÇA
7.3
Intervalo de Confiança para proporção populacional, p
Vamos deduzir nesta secção um intervalo de confiança (1 − α) × 100% para a proporção populacional p. Consideramos a situação em que estamos interessados em estimar a proporção dos
elementos que, na população, possuem determinada característica, através da correspondente proporção amostral P̂ , referente a uma amostra de dimensão suficientemente grande. Podemos assim
usar a seguinte estatística pivot, cuja distribuição por amostragem foi considerada no capítulo
anterior:
• Escolha da estatística pivot:
Z=p
P̂ − p
a
∼ N (0, 1);
p(1 − p)/n
• Para um nível de confiança de (1 − α) × 100%, escolhemos c1 = −zα/2 e c2 = zα/2 tais
que P (−zα/2 < Z < zα/2 ) = 1 − α. De acordo com os cálculos apresentados na página
53, z1−α/2 = Φ−1 (1 − α/2).
• Determinação dos extremos do intervalo aleatório:
P̂ − p
< zα/2
−zα/2 < Z < zα/2 ⇔ −zα/2 < p
p(1 − p)/n
(7.2)
A resolução das inequações anteriores, em ordem
q a p, torna-se muito mais simples se
substituirmos
p
p(1 − p)/n, pela sua estimativa,
P̂ (1 − P̂ )/n. Se a dimensão da amostra
for elevada esta substituição não deverá afectar muito a precisão do intervalo. Assim,
efectuando a substituição,
− zα/2 < √
− zα/2
− zα/2
q
q
P̂ − zα/2
P̂ −p
P̂ (1−P̂ )/n
< zα/2 ⇔
P̂ (1 − P̂ )/n < P̂ − p < zα/2
q
P̂ (1 − P̂ )/n − P̂ < −p < zα/2
q
P̂ (1 − P̂ )/n < p < P̂ + zα/2
P̂ (1 − P̂ )/n ⇔
q
P̂ (1 − P̂ )/n − P̂ ⇔
q
P̂ (1 − P̂ )/n
Então,
−zα/2
P
P̂ − p
< zα/2
<p
p(1 − p)/n
P P̂ − zα/2
q
!
'
P̂ (1 − P̂ )/n < p < P̂ + zα/2
q
P̂ (1 − P̂ )/n ' 1 − α
• Assim, observada a amostra e calculada a respectiva proporção p̂, obtemos o seguinte
intervalo de confiança aproximado:
IC(1−α)×100% (p) = p̂ − zα/2
q
p̂(1 − p̂)/n ; p̂ + zα/2
q
p̂(1 − p̂)/n .
61
7.3. INTERVALO DE CONFIANÇA PARA PROPORÇÃO POPULACIONAL, P
Exemplo 7.7. Num inquérito destinado a estimar a proporção p da população que tem TV por
cabo, foram inquiridas 200 pessoas, das quais 78 afirmaram ter este serviço. Temos a estimativa
pontual da proporção da população com TV por cabo p̂ = 0.39. Como n = 200 > 30 e
z0.05 = 1.96, o intervalo de 95% de confiança para a proporção p é:
q
0.39 − 1.96
0.39(1 − 0.39)/200 ; 0.39 + 1.96
q
0.39(1 − 0.39)/200 =]0.322 , 0.458[.
Observação: Tal como já foi referido, também é possível resolverqas inequações em (7.2) em ordem a p sem a substituição de
p
p(1 − p)/n, pela sua estimativa,
P̂ (1 − P̂ )/n. Esta resolução,
embora tenha muito mais cálculos, conduz-nos à inequação:
1+
2 zα/2
n
p2 − 2P̂ +
2 zα/2
n
p + P̂ 2 < 0,
Os extremos Inferior e superior do intervalo de confiança são, respectivamente:
2
P̂ + zα/2
/n − zα/2
q
2 /(4n2 )
P̂ (1 − P̂ )/n + zα/2
2 /n
1 + zα/2
,
2
P̂ + zα/2
/n + zα/2
q
2 /(4n2 )
P̂ (1 − P̂ )/n + zα/2
2 /n
1 + zα/2
.
Como ilustração, apresentamos o intervalo de confiança a 95% para a a proporção p, do Exemplo
7.7: IC95% (p) =]0.325 , 0.459[.
62
CAPÍTULO 7. ESTIMAÇÃO POR INTERVALO DE CONFIANÇA
Capítulo 8
Teste de Hipóteses
8.1
Introdução
Vamos começar por introduzir alguns conceitos importantes e alguma notação.
Definição 8.1 (Hipótese Estatística). Uma hipótese estatística é uma conjectura acerca da
distribuição de uma ou mais variáveis aleatórias. Para cada hipótese que se faça, designada por
hipótese nula e denotada por H0 , há sempre outra hipótese, designada por hipótese alternativa
e denotada por H1 . Se a hipótese estatística H0 especifica completamente a distribuição é
chamada de hipótese simples. Caso contrário é chamada de hipótese composta.
Uma hipótese estatística pode ser, ou não ser, verdadeira. A verdade ou falsidade nunca pode
ser confirmada, a menos que observássemos toda a população, o que nalguns casos é impraticável
(quando a população é muito grande) ou até mesmo impossível (no caso de populações infinitas,
ou quando característica em estudo leva à destruição dos elementos observados).
Exemplo 8.2 (Hipótese Estatística). Seja (X1 , X2 , . . . , Xn ) uma amostra aleatória da população dos pesos das formigas Solenopsis anteriormente considerada. A hipótese estatística de que
o peso médio desta população toma o valor 8dg denota-se por:
H0 : µ = 8 versus
H1 : µ 6= 8
(Hipótese simples)
É usual abreviar a palavra “versus” para “vs”:
H0 : µ = 8 vs
H1 : µ 6= 8
A hipótese estatística de que o peso médio desta população é menor ou igual a 8dg denota-se
por:
H0 : µ ≤ 8 vs
H1 : µ > 8
(Hipótese composta).
63
64
CAPÍTULO 8. TESTE DE HIPÓTESES
Ao testarmos uma hipótese nula contra uma hipótese alternativa, a nossa atitude deverá ser
admitir H0 como verdadeira até que os dados fornecidos pela amostra “testemunhem” fortemente
contra ela; nesse caso, H0 deverá ser rejeitada a favor de H1 .
Definição 8.3 (Teste de Hipóteses). Um teste de hipóteses é uma regra que nos permite
decidir se devemos, ou não, rejeitar H0 . Esta regra é baseada no valor que a estatística de teste
W assume. Assim se,
• W (x1 , x2 , . . . , xn ) ∈ R, rejeita-se H0 (e aceita-se H1 como verdadeira);
• W (x1 , x2 , . . . , xn ) ∈
/ R, não se rejeita H0 .
O conjunto R representa a região crítica ou região de rejeição.
Definição 8.4 (Erros de tipo I e de tipo II). Quando realizamos um Teste de Hipóteses
podemos cometer um dos seguintes erros:
• A rejeição de H0 quando ela é verdadeira (erro de tipo I);
• A não rejeição de H0 quando esta é falsa (erro de tipo II).
Representamos por α e β, respectivamente, a probabilidade de ocorrer um erro de tipo I ou II,
isto é,
• α = P (erro de tipo I) = P (rejeitar H0 |H0 é verdadeira);
• β = P (erro de tipo II) = P (não rejeitar H0 |H0 é falsa).
Chamamos ainda nível de significância a α e potência do teste a 1−β. Os níveis de significância
mais usuais são α = 0.01, α = 0.05 ou α = 0.1.
Observação: O teste ideal é aquele em que estas as probabilidades α e β têm valor mínimo.
Contudo, é impossível minimizá-las simultaneamente. De facto, quando α diminui, β aumenta e
vice-versa. O procedimento usual consiste em fixar o nível de significância α e escolher a região
de rejeição que minimiza β, isto é, que maximize a potência do teste.
Exemplo 8.5. Seja (X1 , X2 , . . . , Xn ) uma amostra aleatória da população dos pesos das formigas
Solenopsis, isto é, da população X ∼ N (µ, 22 ). Um teste possível para testar:
H0 : µ ≤ 8 vs
é rejeitar H0 se
X−8
√
2/ n
H1 : µ > 8,
> 1.64.
8.2. TESTE DE HIPÓTESES PARA A MÉDIA DA POPULAÇÃO
65
Definição 8.6 (Valor-p ou “p-value”). De um modo informal, podemos definir o valor-p ou
“p-value” como o mais pequeno nível de significância que leva à rejeição de H0 . Assim,
• um valor-p pequeno é desfavorável a H0 .
• um valor-p elevado indica que as observações são consistentes com H0 .
Nota: Geralmente o software estatístico apenas apresenta o valor-p do teste. Cabe ao utilizador
tomar a decisão ao nível de significância α. Quanto menor for o valor-p, menor é a consistência
entre os dados e H0 . Assim, se valor-p < α, devemos rejeitar H0 , ao nível de significância α.
Regra de cálculo do valor-p:
Seja (x1 , x2 , . . . , xn ) a concretização da amostra aleatória e
wobs = W (x1 , x2 , . . . , xn ),
o valor observado da estatística de teste W . O valor-p corresponde à probabilidade de
se observar um valor igual ou mais “extremo” do que o observado, wobs , se a hipótese
nula é verdadeira. O cálculo desta probabilidade depende do tipo de região de rejeição
da hipótese H0 , conforme indicado na seguinte tabela:
Região de rejeição
] − ∞, −c [ ∪ ] c, +∞[
ou
] 0, b [ ∪ ] c, +∞[
] − ∞, c [
ou
] 0, c [
] c, +∞[
8.2
valor-p
2 × min P (W < wobs | H0 ), P (W > wobs | H0 )
P (W < wobs | H0 )
P (W > wobs | H0 )
Teste de Hipóteses para a média da população
De modo análogo, ao efectuado no capítulo anterior, a dedução do teste de hipóteses para o valor
médio da população será feito admitindo um dos seguintes pressupostos:
1. População Normal e Variância conhecida;
2. População Normal e Variância desconhecida;
3. População não-Normal e Variância conhecida;
4. População não-Normal e Variância desconhecida.
66
CAPÍTULO 8. TESTE DE HIPÓTESES
8.2.1
Teste bilateral
• Vamos admitir que (X1 , X2 , . . . , Xn ) representa uma amostra aleatória de uma população
Normal com variância conhecida e que pretendemos testar
H0 : µ = µ0
H1 : µ 6= µ0
vs
(teste bilateral)
• Já sabemos que X é um estimador centrado de µ. Também já se verificou que
√ X−µ
n σ ∼
N (0, 1), embora o valor médio, µ, seja desconhecido. Assim, vamos considerar a seguinte
estatística de teste:
Z=
X − µ0
√
σ/ n
∼
sob H0
N (0, 1).
• Considere o nível de significância α. Estamos interessados em rejeitar H0 quando os
valores observados não estiverem de acordo com esta hipótese, isto é, quando a diferença entre X e µ0 for grande. Assim, vamos considerar a região de rejeição Rα =
] − ∞, −zα/2 [ ∪ ]zα/2 , +∞[, indicada na Figura 8.1.
Rα
Rα
0.0
1−α
− zα
2
0
zα
2
Figura 8.1: Região de rejeição para o teste bilateral para o valor médio.
• A regra de decisão do teste consiste em rejeitar H0 se zobs =
x−µ
√0
σ/ n
∈ Rα , ou seja, se
|zobs | > zα/2 .
Exemplo 8.7. Considere novamente o exemplo da população dos pesos das formigas Solenopsis, isto é, a população X ∼ N (µ, 22 ), da qual observámos a amostra aleatória de 4 pesos
(8, 13, 9, 8.5). Com base nesta amostra vamos testar, a um nível de significância 5%, a hipótese
de que o peso médio populacional µ é igual a 9dg, ou seja vamos testar: H0 : µ = 9 vs H1 : µ 6= 9.
• Como a população é normal com variância conhecida, a estatística de teste é:
Z=
X−9
√
∼
2/ 4 sob H0
N (0, 1).
67
8.2. TESTE DE HIPÓTESES PARA A MÉDIA DA POPULAÇÃO
• Região de rejeição para α = 0.05: Rα =] − ∞, −1.96[ ∪ ]1.96, +∞[.
• Regra de decisão do teste: Rejeitar H0 ao nível de significância 5% se zobs =
9.625−9
√
2/ 4
• Decisão: Como zobs =
x−9
√
2/ 4
∈ R0.05 .
= 0.625 ∈
/ R0.05 , não rejeitamos H0 ao nível de significância
5%, significando que os dados não vão contra o pressuposto de que o peso médio das
formigas é 9dg..
Exemplo 8.8 (Cálculo do valor-p do teste do Exemplo 8.7). Como Zobs ' 0.63,
valor-p = 2 min P (Z < 0.63 | H0 ), P (Z > 0.63 | H0 ) = 2P (Z > 0.63 | H0 ) =
= 2(1 − P (Z ≤ 0.63 | H0 )) = 2(1 − Φ(0.63)) = 0.5286.
Outros testes de hipóteses bilaterais para o valor médio
O teste de hipóteses bilateral, apresentado nesta secção, baseou-se no pressuposto da população
ter distribuição Normal e da variância ser conhecida. Noutras condições o teste faz-se de forma
análoga, podendo ser necessário alterar a estatística de teste e respectiva região de rejeição,
conforme indicado na seguinte tabela:
População
Pop. Normal de média µ
Variância
Rejeitar H0 se
σ 2 conhecida
X−µ
σ/√n0 > zα/2
X−µ
S/√n0 > tn−1,α/2
X−µ
σ/√n0 > zα/2
X−µ
S/√n0 > zα/2
σ 2 desconhecida
Pop. não-Normal de média µ
(n ≥ 30)
8.2.2
σ 2 conhecida
σ 2 desconhecida
Teste unilateral direito
• Vamos admitir que (X1 , X2 , . . . , Xn ) representa uma amostra aleatória de uma população
Normal com variância conhecida e pretendemos testar
H0 : µ ≤ µ0
vs
H1 : µ > µ0
(teste unilateral direito)
• De modo análogo, ao apresentado no teste bilateral, vamos considerar a seguinte estatística
de teste:
Z=
X − µ0
√
σ/ n
∼
sob H0
N (0, 1).
• Vamos considerar a região de rejeição Rα =]zα , +∞[, indicada na Figura 8.2.
• Regra de decisão: Rejeitar H0 , ao nível de significância α se zobs ∈ Rα .
68
CAPÍTULO 8. TESTE DE HIPÓTESES
Rα
1−α
0.0
α
0
zα
Figura 8.2: Região de rejeição para o teste unilateral direito para o valor médio.
Outros testes de hipóteses unilaterais direitos para o valor médio
A estatística de teste e a região de rejeição podem mudar ligeiramente, consoante a população
tem, ou não, distribuição Normal e a variância é, ou não é, conhecida. A próxima tabela apresenta,
de forma resumida, as alterações que se devem fazer no teste de hipóteses anteriormente deduzido:
População
Pop. Normal de média µ
Variância
Rejeitar H0 se
σ 2 conhecida
X−µ
√ 0 > zα
σ/ n
X−µ
√ 0 > tn−1,α
S/ n
X−µ
√ 0 > zα
σ/ n
σ 2 desconhecida
Pop. não-Normal de média µ
(n ≥ 30)
8.2.3
σ 2 conhecida
σ 2 desconhecida
X−µ
√0
S/ n
> zα
Teste unilateral esquerdo
O procedimento que deduz o teste unilateral esquerdo, para o valor médio,
H0 : µ ≥ µ0
vs
H1 : µ < µ0
(teste unilateral esquerdo),
é análogo ao do teste unilateral direito. Por esta razão apenas se apresentamos a seguinte tabela
resumo:
População
Pop. Normal de média µ
Variância
Rejeitar H0 se
σ 2 conhecida
X−µ
√ 0 < −zα
σ/ n
X−µ
√ 0 < −tn−1,α
S/ n
X−µ
√ 0 < −zα
σ/ n
X−µ
√ 0 < −zα
S/ n
σ 2 desconhecida
Pop. não-Normal de média µ
(n ≥ 30)
σ 2 conhecida
σ 2 desconhecida
8.3. TESTE DE HIPÓTESES PARA A VARIÂNCIA, σ 2 , DE UMA POPULAÇÃO NORMAL
69
Teste de Hipóteses para a variância, σ 2 , de uma população
Normal
8.3
Suponha que observamos uma amostra aleatória (X1 , X2 , . . . , Xn ) de uma população X ∼
N (µ, σ 2 ), em que µ é desconhecido. Vamos nesta secção considerar apresentar alguns testes
de hipóteses, relativos ao valor da variância da população, σ 2 .
• Testamos uma das três seguintes hipóteses (nula e alternativa):
1. H0 : σ 2 = σ02
vs
H1 : σ 2 6= σ02
(teste bilateral);
2. H0 : σ 2 ≤ σ02
vs
H1 : σ 2 > σ02
(teste unilateral direito);
3. H0 : σ 2 ≥ σ02
vs
H1 : σ 2 < σ02
(teste unilateral esquerdo).
• Vamos escolher a estatística de teste com base no estimador de σ 2 , S 2 , variância amostral:
X2 =
(n − 1)S 2
σ02
χ2n−1 .
∼
sob H0
• Definamos a região de rejeição do teste: Para um nível de significância α, pré-especificado,
as regiões de rejeição dos três tipos de hipóteses são, respectivamente, indicadas nas
seguintes figuras:
Rα
Rα
1−α
2
α
χ2n−−1::α
1−α
α
2
0.0
0.0
α 2
χ2n−−1::1−−α
Rα
1−α
0.0
α 2
0
Rα
χ2n−−1::α
0
0
χ2n−−1::1−−α
Figura 8.3: Esquerda: Região de rejeição para o teste bilateral. Centro: Região de rejeição para
o teste unilateral direito. Direita: Região de rejeição para o teste unilateral esquerdo.
Ou seja, a região de rejeição do teste, para um nível de significância α pré-especificado é,
respectivamente:
1. Rα = ]0, χ2n−1,1−α/2 [ ∪ ]χ2n−1,α/2 , +∞[
(teste bilateral);
2. Rα = ]χ2n−1,α , +∞[
(teste unilateral direito);
3. Rα = ]0, χ2n−1,1−α [
(teste unilateral esquerdo);
2 ∈R .
• Rejeitamos H0 se Xobs
α
70
CAPÍTULO 8. TESTE DE HIPÓTESES
8.4
Teste de Hipóteses para a proporção p de uma população
Admita que temos uma amostra aleatória de dimensão n de uma população, em que determinada
proporção desconhecida p dos seus elementos possui certa característica.
• Admita que pretendemos testar uma das seguintes hipóteses (nula e alternativa):
1. H0 : p = p0
vs
H1 : p 6= p0
(teste bilateral);
2. H0 : p ≤ p0
vs
H1 : p > p0
(teste unilateral direito);
3. H0 : p ≥ p0
vs
H1 : p < p0
(teste unilateral esquerdo);
• Estatística de teste:
Z=p
P̂ − p0
p0 (1 − p0 )/n
a
∼
sob H0
N (0, 1)
• Definamos a região de rejeição do teste: Para um nível de significância α, pré-especificado,
as regiões de rejeição dos três tipos de hipóteses são, respectivamente, indicadas nas
seguintes figuras:
Rα
Rα
Rα
2
0
zα
1−α
α
0
2
zα
0.0
− zα
1−α
0.0
0.0
1−α
Rα
α
− zα
0
Figura 8.4: Esquerda: Região de rejeição para o teste bilateral. Centro: Região de rejeição para
o teste unilateral direito. Direita: Região de rejeição para o teste unilateral esquerdo.
Região de rejeição do teste, para um nível de significância α pré-especificado:
1. Rα = ] − ∞, −zα/2 [ ∪ ]zα/2 , +∞[
2. Rα = ]zα , +∞[
3. Rα = ] − ∞, −zα [
(teste bilateral);
(teste unilateral direito);
(teste unilateral esquerdo);
• Regra de decisão do teste: Rejeitar H0 ao nível de significância α se
zobs = p
p̂obs − p0
∈ Rα .
p0 (1 − p0 )/n
71
8.5. TESTE DAS SEQUÊNCIAS ASCENDENTES E DESCENDENTES
8.5
Teste das sequências ascendentes e descendentes
O teste a seguir apresentado permite-nos testar a hipótese de aleatoriedade, uma condição essencial nos diversos métodos estatísticos já estudados. Considere as hipóteses:
H0 : A amostra é aleatória
vs.
H1 : A amostra não é aleatória
• Seja (X1 , X2 , . . . , Xn ) uma amostra da população X. Vamos substituir pelo símbolo “+”
cada observação precedida por uma de valor inferior, e pelo símbolo “-” cada observação
que é precedida por outra de valor superior. As observações precedidas por outras de valor
igual são desprezadas (e corrige-se a dimensão da amostra, n).
• A estatística de teste é:
2n−1
3
16n−29
90
V −
Z= q
a
∼
N (0, 1).
sob H0
com V = número de sequências de sinais “+” e “-”. Na prática considera-se que a distribuição de Z é razoável se n ≥ 25.
• Região de rejeição para o nível de significância α.
Rα = ] − ∞, −zα/2 [ ∪ ]zα/2 , +∞[
Rejeitamos H0 , ao nível de significância α, sempre que zobs ∈ Rα .
Nota: O teste também pode ser aplicado em amostras de pequena dimensão (n < 25). Nesse caso
utiliza-se a estatística de teste V . Para mais detalhes consulte a bibliografia aconselhada.
Exemplo 8.9 (Exame de P.E. - 2008/09). Considere a seguinte amostra, de dimensão n = 30,
do número de clientes atendidos por hora em certo posto de venda:
41
35
30
36
28
20
40
42
28
43
26
42
28
40
41
32
30
26
34
28
40
41
36
34
30
24
20
42
43
40
Podemos considerar a amostra aleatória? (considere um nível de significância de 5%)
Resposta: Pretendemos testar
H0 : A amostra é aleatória
vs
H1 : A amostra não é aleatória
A estatística de teste é
2n−1
3
∼
16n−29 Sob H0
90
V −
Z= q
N (0, 1).
Para a amostra indicada, vobs = 17 e zobs = −1.19.
A região de rejeição do teste é: R0.05 =] − ∞; −1.96[ ∪ ]1.96; +∞[ Como o valor observado da
estatística de teste não pertence à região de rejeição, não rejeitamos a hipótese H0 ao nível de
significância 5%.
72
CAPÍTULO 8. TESTE DE HIPÓTESES
8.6
Teste de ajustamento do Qui Quadrado
Em muitas situações a distribuição da população é desconhecida, e podemos estar interessados em
testar se determinada v.a. ou população tem distribuição F , isto é, podemos estar interessados
em testar:
H0 : X ∼ F
vs
H1 : X F
(8.1)
Existem vários testes de hipóteses que nos permitem testar estas hipóteses. Nesta disciplina
iremos apenas abordar um dos mais conhecidos: O teste de ajustamento do Qui-Quadrado.
Trata-se de um teste que apresenta a vantagem de poder ser aplicado para qualquer distribuição,
desde que a amostra recolhida não seja muito pequena. Existem outros testes de hipóteses que
permitem testar as hipóteses em (8.1), como por exemplo:
1. Teste de Kolmogorov-Smirnov (válido para distribuições contínuas);
2. Teste de Shapiro-Wilk (válido para a distribuição Normal).
Teste do Qui Quadrado:
• Os dados observados (a amostra) são divididos em k classes, A1 , A2 , . . . , Ak . Em cada
classe Ai consideramos o número de observações que lhe correspondem (a frequência absoluta de cada classe), denotando esse número por Oi . Consideramos ainda o número de
observações que esperaríamos observar em cada uma das classes, se a hipótese nula fosse
verdadeira, denotando-o por Ei . Este número é determinado por Ei = n × pi , em que pi é a
probabilidade de uma observação pertencer à classe i, caso a hipótese nula seja verdadeira,
isto é,
pi = P (X ∈ Ai |H0 verdadeira),
i = 1, 2, . . . , k.
• A estatística de teste usada é:
X2 =
k
X
(Oi − Ei )2
i=1
Ei
a
∼
sob H0
χ2k−p−1 ,
onde k é o número de classes e p o número de parâmetros estimados (do modelo considerado
na hipótese nula), pelo método da máxima verosimilhança.
• Região de rejeição do teste, para um nível de significância α, pré-especificado:
Rα =]χ2k−p−1,α , +∞[
2 ∈R .
Rejeitamos H0 , ao nível de significância α, sempre que Xobs
α
73
8.6. TESTE DE AJUSTAMENTO DO QUI QUADRADO
Observações:
1. Caso exista algum Ei < 5, tipicamente correspondendo às classes dos extremos, essa(s)
classe(s) deve(m) ser agrupada(s) até o correspondente novo número esperado Ei (dado
pelas somas dos correspondentes antigos Ei0 s) ultrapassar 5. Os correspondentes Oi ’s devem
nesse caso ser também somados, diminuindo naturalmente o valor do número de classes k.
2. Como
Pk
i=1 Oi
X2 =
=
Pk
k
X
Oi2
i=1
= n, a estatística de teste X 2 é igual a:
i=1 Ei
Ei
− n.
Exemplo 8.10. Geneticistas pensam que, em determinada população, a distribuição de probabilidade dos grupos sanguíneos é a seguinte:
(
MM
0.3
MN
0.5
NN
0.2
Uma amostra de 200 indivíduos desta população, classificados de acordo com estes grupos sanguíneos, revelou 64 indivíduos do grupo MM, 96 do grupo MN e os restantes do grupo NN.
(a) Estes dados fornecem evidência estatística para pôr em causa o pressuposto dos geneticistas?
(b) Determine, um valor aproximado, do valor-p do teste.
Resolução:
(a) Usando o teste do Qui Quadrado, pretendemos testar:
H0 : P (M M ) = 0.3, P (M N ) = 0.5, P (N N ) = 0.2
H0 : P (M M ) 6= 0.3,
ou P (M N ) 6= 0.5,
vs
ou P (N N ) 6= 0.2
Temos 3 classes e os seguintes valores:
A1 = M M
O1 = 64
E1 = 60
A2 = M N
O2 = 96
E2 = 100
A3 = N N
O3 = 40
E3 = 40
Usando a estatística de teste X 2 =
2
Xobs
=
642
60
+
962
100
+
402
40
Pk
i=1
a
(Oi −Ei )2
∼
Ei
sob H0
χ2k−p−1 , obtemos:
− 200 = 0.427
Considerando α = 0.05, a região de rejeição é R0.05 =]χ22,0.05 , +∞[=]5.99, +∞[. Como
2 ∈
Xobs
/ R0.05 , não rejeitamos H0 , ao nível de significância 5%.
(b) Valor-p = P (X 2 > 0.427) ' P (X 2 > 0.446) = 0.8.
74
CAPÍTULO 8. TESTE DE HIPÓTESES
Exemplo 8.11 (Teste de ajustamento para o modelo Poisson). Pensa-se que o número de
defeitos encontrados em circuitos eléctricos tem distribuição Poisson. Recolheu-se uma amostra
aleatória de n = 60 circuitos e observaram-se os seguintes números de defeitos:
número de defeitos
0
1
2
3
número de circuitos
32
15
9
4
Resolução: Como λ é desconhecido, terá de ser estimado. Assim, λ̂ = x = 0.75. Pretende-se
testar:
H0 : X ∼ P (0.75)
vs
H0 : X P (0.75)
A tabela anterior já inclui as observações agrupadas em classes. Assim, vamos considerar as
classes: A1 = {0}, A2 = {1}, A3 = {2}, A4 = {3, 4, . . .}. Como E4 < 5 é necessário juntar a
classe A4 à classe A3 (ver as seguintes tabelas).
no de defeitos
0
1
2
3 (ou mais)
no de defeitos
0
1
2 (ou mais)
pi
0.472
0.354
0.133
0.041
Oi
32
15
13
pi
0.472
0.354
0.174
Ei
28.32
21.24
7.98
2.46
Ei
28.32
21.24
10.44
O valor observado de estatística de teste é:
χ2obs =
(32 − 28.32)2 (15 − 21.24)2 (13 − 10.44)2
+
+
= 2.94
28.32
21.24
10.44
Considerando α = 0.05, a região de rejeição é R0.05 =]χ21,0.05 , +∞[=]3.84, +∞[. Como
χ2obs = 2.94 < χ21;0.05 = 3.84,
não rejeitamos a hipótese H0 de que a distribuição da população é P (0.75).
75
8.6. TESTE DE AJUSTAMENTO DO QUI QUADRADO
Exemplo 8.12 (Teste de ajustamento para o modelo Normal). Os artigos produzidos em
determinada fábrica são sujeitos a um controle de qualidade, resultando num índice de qualidade,
X. De forma a avaliar essa qualidade recolheu-se uma amostra aleatória de 46 artigos da produção,
tendo-se medido os valores seguintes do referido índice:
100, 110, 122, 132, 99, 96, 88, 75, 45, 154, 153, 161, 142, 99, 111, 105, 133, 142, 150, 153, 121, 126, 117, 97,
105, 117, 125, 105, 94, 90, 80, 50, 55, 102, 122, 136, 75, 104, 109, 108, 134, 135, 111, 78, 89, 154
Vamos usar estes dados para testar, ao nível de significância 5%,
H0 : X ∼ N (µ, σ 2 ) vs
H1 : X N (µ, σ 2 )
Como não conhecemos os valores populacionais de µ e σ 2 , vamos estimá-los a partir da amostra.
Assim,
46
1 X
xi = 111.0652;
µ̂ = x =
46 i=1
46
X
1
σ̂ = s =
x2 − 46 × x2
46 − 1 i=1 i
2
!
2
= 785.3068
log(46)
Pela regra de Sturges, o número de classes a considerar é dado por: k ≈ 1+ log(n)
log(2) = 1+ log(2) ≈
6.523562
Consideramos k = 7. A amplitude de cada classe é aproximadamente
L
7
=
161−45
7
≈ 16.6. Vamos
aproximar este valor a 20, ou seja, considerar as classes:
] − ∞; 60] ]60; 80] ]80; 100] ]100; 120] ]120; 140] ]140; 160] ]160; +∞[
Devemos contar quantas observações caiem em cada um dos intervalos anteriores, para obter
os valores de Oi , e devemos determinar os valores de Ei = n × pi = 46 × pi .
i
1
2
3
4
5
6
7
Classe
] − ∞; 60]
]60; 80]
]80; 100]
]100; 120]
]120; 140]
]140; 160]
]160; +∞[
Oi
3
4
9
12
10
7
1
pi
0.0344
0.0991
0.2148
0.2772
0.223
0.1114
0.0401
Ei
1.5824
4.5586
9.8808
12.7512
10.258
5.1244
1.8446
i
1
2
3
4
5
Classe
] − ∞; 80]
]80; 100]
]100; 120]
]120; 140]
]140; +∞[
Oi
7
9
12
10
8
pi
0.1335
0.2148
0.2772
0.223
0.1515
Então, como k = 5 classes e foram estimados p = 2 parâmetros (µ e σ 2 ),
2
X =
k
X
(Oi − Ei )2
i=1
Ei
sob H0
∼
χ2k−p−1 ≡ χ25−2−1 ≡ χ22
Ei
6.141
9.8808
12.7512
10.258
6.969
76
CAPÍTULO 8. TESTE DE HIPÓTESES
Regra de decisão do teste: Rejeitar H0 ao nível de significância 5% se x2obs ∈ R0.05 ≡]5.99, +∞[.
Como x2obs = 0.4019 não rejeitamos, ao nível de significância de 5% a hipótese nula de que a
distribuição da população é Normal.
Capítulo 9
Regressão Linear
9.1
Introdução
A regressão é uma técnica estatística que permite estudar a relação entre uma ou mais variáveis
resposta (também designadas por variáveis dependentes) e uma ou mais variáveis explicativas
(também designadas por variáveis independentes). Ao modelo matemático que relaciona as
variáveis dá-se o nome de equação de regressão.
Estamos apenas interessados no caso em que temos uma variável dependente Y , uma variável
independente x e a equação de regressão é linear, isto é,
Y = β0 + β1 x + ε,
ε ∼ N (0, σ 2 ).
O termo β0 +β1 x é a componente determinística do modelo e ε é o erro aleatório que se pressupõe
ter distribuição normal de valor médio nulo e variância σ 2 . Os parâmetros β0 e β1 terão de ser
estimados a partir dos dados. A este modelo dá-se o nome de equação de regressão linear
simples. Podemos também usar esta técnica considerando modelos mais complexos como a
regressão linear múltipla ou a regressão não linear.
Observações:
1. Y também é uma variável aleatória porque, Y = β0 +β1 x+ε e ε ∼ N (0, σ 2 ) é uma variável
aleatória. Como
E(Y |x) = E(β0 + β1 x + ε|x) = β0 + β1 x + 0 = β0 + β1 x,
V (Y |x) = V (β0 + β1 x + ε|x) = V (ε) = σ 2 ,
isto é,
Y |x ∼ N (β0 + β1 x, σ 2 ).
2. O modelo possui o parâmetro adicional, σ 2 , que também terá de ser estimado.
77
78
CAPÍTULO 9. REGRESSÃO LINEAR
9.2
Estimadores dos Mínimos Quadrados de β0 e β1
Suponha que se observam um conjunto de n observações da variável independente e da variável
resposta - (x1 , Y1 ), (x2 , Y2 ) . . . , (xn , Yn ) - e que se pretendem usar estes valores para estimar
os parâmetros de regressão de um modelo de regressão linear simples. Assumimos que os erros aleatórios εi , para cada elemento amostral Yi , são independentes seguindo todos a mesma
distribuição N (0, σ 2 ), isto é:
com εi ∼ N (0, σ 2 )
Yi = β0 + β1 xi + εi ,
independentes.
Assim deveremos encontrar estimadores β̂0 e β̂1 , dos coeficientes da recta de regressão β0 e
β1 , respectivamente, para obtermos a recta estimada,
Ŷ = β̂0 + β̂1 x.
As estimativas pontuais da recta de regressão para as observações x1 , x2 , . . . , xn serão Ŷi =
β̂0 + β̂1 xi , i = 1, 2, . . . , n.
Definição 9.1 (Resíduo). Embora a variável residual ε não seja observável, é possível calcular os
desvios das n observações da amostra.
εi = Yi − Ŷi = Yi − β̂0 − β̂1 xi ,
i = 1, 2, . . . , n.
A estes desvios damos o nome de resíduos.
De entre diversos métodos que existem para a dedução dos estimadores, vamos aqui abordar
o método dos mínimos quadrados. Neste método, os estimadores β̂0 e β̂1 devem ser obtidos de
modo a minimizar a soma do quadrado dos resíduos,
SQR =
n
X
(Yi − Ŷi )2 =
n
X
(Yi − β̂0 − β̂1 xi )2 .
i=1
i=1
Esta minimização é conseguida resolvendo, em ordem a β0 e β1 , o sistema de equações,

∂ SQ


 ∂ β̂0 = 0
⇔

P

 −2 (Yi − β̂0 − β̂1 xi ) = 0
⇔


P


 ∂ SQ = 0
−2 xi (Yi − β̂0 − β̂1 xi ) = 0
∂ β̂1

 P
P

β̂ = Y − β̂1 x


Yi = nβ̂0 + β̂1 xi

 0
⇔
P


P
P 2
 P

 β̂1 = Pxi Y2i −nxY
xi Yi = β̂0 xi + β̂1 x
2
i
xi −nx
9.3. ESTIMAÇÃO DE σ 2 E QUALIDADE DO AJUSTE
79
Observação 1: Para simplificar a notação, podemos escrever:
β̂1 =
SxY
Sxx
β̂0 = Y − β̂1 x,
com
Sxx =
SxY =
n
X
n
X
i=1
n
X
i=1
(xi − x)2 =
x2i − nx2 ;
(Yi − Y )(xi − x) =
i=1
n
X
Yi (xi − x) =
i=1
n
X
xi Yi − nxY .
i=1
Observação 2: A soma dos quadrados dos desvios pode ainda ser escrita da seguinte forma
SQR =
n
X
(Yi − Ŷi )2 = SY Y −
i=1
2
SxY
= SY Y − β̂12 Sxx ,
Sxx
com
SY Y =
9.3
n
X
n
X
i=1
i=1
(Yi − Y )2 =
2
Yi2 − nY .
Estimação de σ 2 e Qualidade do Ajuste
Definição 9.2 (Estimador de σ 2 ). O estimador de σ 2 é:
σ̂ 2 =
SQR
n−2
Definição 9.3 (Coeficiente de Determinação).
2
SxY
SQR
2 Sxx
=
β̂
=
1
2
SY Y
Sxx SY Y
i=1 (Yi − Y )
R 2 = 1 − Pn
Esta medida compara a soma de quadrados dos resíduos (SQR ) do modelo de regressão linear
simples com a SQR do modelo de regressão linear simples com β1 = 0. A quantidade R2 varia
entre 0 e 1. Na prática, consideramos que o ajustamento é razoável se R2 ≥ 0.8.
9.4
9.4.1
Propriedades dos estimadores dos mínimos quadrados
Distribuição por amostragem de σ̂ 2
Proposição 9.4 (Propriedades de σ̂ 2 ). No modelo de regressão linear simples,
(n − 2)
σ̂ 2
SQR
=
∼ χ2n−2 .
2
σ
σ2
80
CAPÍTULO 9. REGRESSÃO LINEAR
9.4.2
Distribuição por amostragem de β̂0 e β̂1
Proposição 9.5 (Distribuição por amostragem de β̂0 e β̂1 ). No modelo de regressão linear simples,
σ2
β̂1 ∼ N β1 ,
Sxx
!
,
2
β0 , nSσ xx
β̂0 ∼ N
e
n
P
2
xi .
i=1
Demonstração. Note-se que
SxY
β̂1 =
=
Sxx
Pn
i=1 (xi
− x)Yi
Sxx
,
isto é, β̂1 é uma combinação linear de v.a.’s Yi independentes, com distribuição Normal. Logo β̂1
também tem distribuição Normal. E ainda necessário conhecer os seus parâmetros. O seu valor
médio é
n
− x)E(Yi )
(xi − x)(β0 + β1 xi )
E(β̂1 ) =
= i=1
=
Sxx
Sxx
Pn
P
β0 ni=1 (xi − x) + β1
β1 Sxx
i=1 (xi − x)xi
=
=
= β1
Sxx
Sxx
Pn
P
i=1 (xi
e a variância,
Pn
i=1 (xi
V (β̂1 ) = V
=
− x)Yi
Sxx
Pn
i=1 (xi
=
Yi0 s indep.
− x)2 V (Yi )
=
2
Sxx
Pn
i=1 (xi
− x)2 σ 2
2
Sxx
σ2
Sxx 2
σ
=
.
2
Sxx
Sxx
Relativamente β̂0 , recordemos que β̂0 = Y − β̂1 x. Como Y e β̂1 têm distribuição Normal,
então β̂0 também tem distribuição normal. O valor médio é
E(β̂0 ) = E(Y ) − E(β̂1 )x = β0 + β1 x − β1 x = β0 ,
e a variância,
σ2
σ2
σ2
V (β̂0 ) = V (Y ) + x2 V (β̂1 ) − 2x Cov(Y , β̂1 ) =
+ x2
−0=
n
Sxx
n
σ2 σ2
=
Sxx − nx2 =
nSxx
nSxx
n
X
!
x2i
.
i=1
Nota: No cálculo de V (β̂0 ), usou-se o resultado:


n
n
X
SxY
1
1X
Cov(Y , β̂1 ) = Cov(Y ,
)=
Cov 
Yi ,
(xj − x)Yj 
Sxx
Sxx
n i=1
j=1
=
n
n
1 X
σ2 X
(xi − x)V (Yi ) =
(xi − x) = 0
nSxx i=1
nSxx i=1
nx2
1+
Sxx
!
81
9.5. INFERÊNCIA SOBRE OS PARÂMETROS DO MODELO DE REGRESSÃO
Observação: A partir do resultado anterior conclui-se que β̂0 e β̂1 são estimadores centrados de
β0 e β1 , respectivamente.
Consequentemente, querendo fazer inferência sobre os parâmetros β0 ou β1 , não podemos usar
a distribuições de β̂0 e β̂1 , já que elas dependem de σ 2 (geralmente é desconhecido). Como
σ̂ 2 =
SQR
n−2 .
teremos de usar os seguintes resultados:
β̂1 − β1 p
β̂1 − β1
T = q 2 = Sxx
∼ tn−2 ,
σ̂
σ̂
Sxx
T =q
9.5
9.5.1
β̂0 − β0
σ̂ 2
nSxx
Pn
2
i=1 xi
s
=
nSxx β̂0 − β0
∼ tn−2 .
2
σ̂
i=1 xi
Pn
Inferência sobre os parâmetros do Modelo de Regressão
Intervalo de Confiança e Teste de Hipóteses para β1
O parâmetro β1 é o declive da recta de regressão e, como tal mede o grau de crescimento de Y
relativamente a x.
Intervalo de confiança a (1 − α)100% para β1
• Vamos utilizar a seguinte variável pivot:
β̂1 − β1
T = q 2 ∼ tn−2
σ̂
Sxx
• Para um nível de confiança de (1 − α) × 100%, escolha de c1 e c2 - escolhemos c1 = −c e
c2 = c, tal que P (−c < T < c) = 1 − α. É fácil de verificar que c = tn−2,α/2 .
• Determinação dos extremos do intervalo:
q
− c < T < c ⇔ −tα/2 < T < tα/2 − c
q
−c
σ̂ 2
Sxx
q
− β̂1 < −β1 < c
β̂1 − tn−2,α/2
q
σ̂ 2
Sxx
σ̂ 2
Sxx
σ̂ 2
Sxx
q
< β̂1 − β1 < c
σ̂ 2
Sxx
⇔
− β̂1 ⇔
< β1 < β̂1 + tn−2,α/2
q
σ̂ 2
Sxx
• Assim, obtemos o seguinte intervalo de confiança:
i
IC(1−α)×100% (β1 ) = β̂1 − tn−2;α/2
q
σ̂ 2
Sxx
, β̂1 + tn−2;α/2
q
σ̂ 2
Sxx
h
.
82
CAPÍTULO 9. REGRESSÃO LINEAR
Teste de Hipóteses para β1
Podemos também realizar um teste de hipóteses sobre o valor do parâmetro β1 . Embora o teste
tanto possa ser bilateral, como unilateral, a primeira opção é a mais frequente. Por isso apenas
apresentamos o teste bilateral, embora este possa ser adaptado para o caso unilateral.
• Hipóteses:
H0 : β1 = a
vs
H1 : β1 6= a
• Estatística de teste:
T =
p
Sxx
β̂1 − a
σ̂
∼
Sob H0
tn−2
• Região de rejeição do teste:
Rα =] − ∞; −tn−2,α/2 [ ∪ ]tn−2,α/2 ; +∞[
• Regra de decisão do teste: Rejeitar H0 ao nível de significância α se
tobs ∈ Rα , ou seja, se |tobs | > tn−2;α/2 .
9.5.2
Intervalo de Confiança e Teste de Hipóteses para β0
O parâmetro β0 corresponde ao ponto de intersecção da recta com o eixo das abcissas. A inferência
sobre este parâmetro não tem a mesma importância que tem a inferência sobre o declive β1 da
recta de regressão.
Intervalo de Confiança a (1 − α) × 100% para β0
De modo análogo, ao que foi feito para β1 , mas agora utilizando a variável pivot,
T =q
β̂0 − β0
σ̂ 2
nSxx
Pn
2
i=1 xi
s
=
nSxx β̂0 − β0
∼ tn−2 ,
2
σ̂
i=1 xi
Pn
obtemos o intervalo de confiança (1 − α) × 100% para β0 :
i
IC(1−α)×100% (β0 ) ≡ β̂0 − tn−2;α/2
r
σ̂ 2
r
Pn
x2
i=1 i
nSxx
; β̂0 + tn−2;α/2
σ̂ 2
Pn
x2
i=1 i
nSxx
h
.
Testes de hipóteses para β0
Os testes de hipóteses sobre o parâmetro β0 podem ser tanto bilaterais como unilaterais, sendo
83
9.5. INFERÊNCIA SOBRE OS PARÂMETROS DO MODELO DE REGRESSÃO
sempre baseados na distribuição por amostragem anteriormente apresentada para β̂0 . Vamos
considerar apenas o teste bilateral para β0 , ou seja, as hipóteses:
H0 : β0 = a
vs
H1 : β0 6= a
O teste realiza-se de modo análogo ao apresentado para β1 , mudando apenas a estatística de
teste que é dada por
T =q
9.5.3
β̂0 − a
σ̂ 2
nSxx
Pn
2
i=1 xi
∼
Sob H0
tn−2
Intervalo de Confiança e Teste de Hipóteses para σ 2
Como σ̂ 2 =
SQR
n−2
é estimador centrado de σ 2 e
SQR
σ2
∼ χ2n−2 , podemos deduzir um intervalo
de confiança (1 − α) para a variância σ 2 e para o desvio padrão σ. Seguindo o procedimento
adoptado, na secção 7.2, obtemos
"
#
(n − 2)σ̂ 2 (n − 2)σ̂ 2
;
,
IC(1−α)×100% (σ ) ≡
χ2n−2;α/2 χ2n−2;1−α/2
2
e
v
u
u (n − 2)σ̂ 2

IC(1−α)×100% (σ) ≡ t 2
;
χn−2;α/2

v
u
u (n − 2)σ̂ 2
.
t
2
χn−2;1−α/2
De modo análogo ao apresentado na secção 8.3, podemos também realizar testes de hipótese
(bilaterais e unilaterais) para σ 2 recorrendo à distribuição de σ̂ 2 .
Exemplo 9.6 (Exame de Probabilidades e Estatística C 2005/06). Pretende-se, se possível, modelar através de uma recta de regressão simples o consumo de combustível, Y , de um automóvel
em função da sua velocidade de circulação, x. Para tal registaram-se os valores de consumo de
combustível para um mesmo percurso de 100Km, percorrido a diferentes velocidades:
xi
yi
x = 85,
50
5.22
Y = 8.46,
60
6.25
70
6.85
80
8.36
x2i = 62000,
X
X
90
8.09
100
10.16
Yi2 = 610.43,
110
11.17
120
11.57
X
Yi xi = 6145.5,
SQR = 1.15
(a) Ajuste um modelo de regressão linear simples aos dados. Que pode dizer sobre a qualidade
do ajuste?
(b) Diga por suas palavras como interpreta o valor estimado do declive da recta acima considerada. O sinal desta estimativa está de acordo com as suas expectativas? Porquê?
(c) Determine um intervalo de confiança a 95% para o verdadeiro declive da recta de regressão.
Comente o resultado face à qualidade do ajuste concluída na alínea (a).
84
CAPÍTULO 9. REGRESSÃO LINEAR
9.6
Estimação do valor esperado de Y para uma observação x0 da
variável controlada
O valor esperado de Y para uma observação x0 da variável controlada é
µY |x0 = E(Y |x0 ) = β0 + β1 x0 .
que pode ser estimado por
µ̂Y |x0 = β̂0 + β̂1 x0 .
Caso a variância do erro, σ 2 , não seja conhecida, a distribuição de amostragem de µ̂Y |x0 é
T =r
µ̂Y |x0 − µY |x0
σ̂ 2
1
n
+
(x0 −x)2
Sxx
∼ tn−2 ,
o que permite deduzir o intervalo de confiança (1 − α) para µY |x0 ,
i
r
µ̂Y |x0 − tn−2;α/2
σ̂ 2
1
n
+
(x0 −x)2
Sxx
r
, µ̂Y |x0 + tn−2;α/2 σ̂ 2
1
n
+
(x0 −x)2
Sxx
h
.
Nota: Só devemos fazer estimação de µY |x0 para valores x0 que estejam dentro do intervalo das
observações obtidas para x.
9.7
Previsão do valor da variável resposta Y para um novo valor
x0 da variável controlada
Dada um valor x0 da variável controlada x, a variável resposta é
Y0 = Y (x0 ) = β0 + β1 x0 + ε,
onde ε ∼ N (0, σ 2 ). O estimador de Y , para um valor x0 , é Yb0 = Yb (x0 ) = β̂0 + β̂1 x0
O erro de predição, εp = Y0 − Yb0 , é uma v.a. Normal de valor médio 0. Como Y0 (observação
futura) é independente de Yb0 , a variância de εp é de dada por
1 (x0 − x)2
1+ +
n
Sxx
V (εp ) = V (Y0 − Yb0 ) = σ 2
Se σ 2 for estimado por σ̂ 2 , então
T =r !
.
b0
Y0 − Y
1
σ̂ 2 1+ n
+
(x0 −x)2
Sxx
∼ tn−2 .
O intervalo de confiança (1 − α) para Y0 é,
i
r
Yb0 − t
n−2;α/2
σ̂ 2
1+
1
n
+
(x0 −x)2
Sxx
r
; Yb0 + t
n−2;α/2
σ̂ 2 1 +
1
n
+
(x0 −x)2
Sxx
h
.
Capítulo 10
Exercícios
10.1
Introdução à Teoria da Probabilidade
1.1 Vinte e cinco membros de uma sociedade devem eleger um presidente, um secretário e um tesoureiro.
Supondo que qualquer dos vinte e cinco membros é elegível para qualquer dos cargos, quantas são
as hipóteses de um resultado final?
1.2 Considere o problema anterior. Suponha que não há diferenciação dos cargos. De quantas maneiras
distintas se podia formar uma comissão, com três elementos escolhidos entre os vinte e cinco elementos?
1.3 Quantas palavras diferentes, com ou sem significado, se podem formar com as letras da palavra
ROMA?
1.4 Quatro livros de Matemática, seis de Física e dois de Química, todos diferentes, devem ser arrumados
numa prateleira. Quantas arrumações diferentes são possíveis se:
(a) os livros de cada matéria ficarem todos juntos?
(b) apenas os livros de matemática devem ficar juntos?
1.5 Numa sala de cinema, de quantas maneiras diferentes se podem sentar numa fila de 12 lugares, 7
amigos?
1.6 De quantas maneiras 10 pessoas podem sentar-se num banco, se houver apenas 4 lugares?
1.7 De quantas formas diferentes se podem sentar 12 pessoas numa mesa redonda?
1.8 Um homem tem 3 camisas e 2 gravatas. De quantas maneiras pode vestir-se (com uma camisa e
uma gravata)?
1.9 Num conjunto de 10 lâmpadas para árvore de natal, 2 são defeituosas. Quantas amostras de 6
lâmpadas podem ser escolhidas, de entre aquelas 10, de modo que:
(a) as 6 lâmpadas escolhidas sejam todas boas?
(b) entre a 6 escolhidas haja uma, e uma só defeituosa?
1.10 Dados 12 pontos num plano, não havendo 3 deles sobre a mesma recta,
(a) quantas rectas são determinadas pelos pontos?
(b) quantas dessas rectas passam pelo ponto A?
(c) quantos triângulos são determinados pelos pontos?
(d) Quantos desses triângulos contêm o ponto A como vértice?
85
86
CAPÍTULO 10. EXERCÍCIOS
(e) Quantos desses triângulos contêm o lado AB?
1.11 De um baralho de 52 cartas são retiradas 10 cartas. Em quantos casos aparecem:
(a) exactamente um ás?
(b) pelo menos um ás?
(c) exactamente dois ases?
(d) pelo menos dois ases?
(e) Um ás ou um ouro?
1.12 Determine o valor n que seja solução de:
(a) n−2
=6
2
n+1
(b)
− n−1
= n2 − 1
2
2
(c) 5 × n3 = n+2
4
1.13 Os atletas A, B, e C vão participar numa corrida e todos estão preparados para a ganhar. O sistema
de cronometragem é suficientemente preciso de modo que não se admitem empates.
(a) Qual a probabilidade de A terminar a corrida à frente de C?
(b) Qual a probabilidade de A ganhar a corrida?
1.14 Por engano misturaram-se quatro pilhas novas com três usadas. Escolhendo, ao acaso e sem
reposição, duas dessas pilhas, determine a probabilidade de:
(a) Ambas serem novas
(b) Nenhuma ser nova
(c) Pelo menos uma ser nova
1.15 Num grupo de 20 congressistas, 8 só falam inglês, 5 só falam francês e 7 falam os dois idiomas.
Qual a probabilidade de dois congressistas, escolhidos ao acaso, poderem conversar sem auxílio de
um intérprete?
1.16 Uma urna contém quatro bolas amarelas, cinco bolas verdes, três bolas brancas e cinco bolas pretas.
Extraem-se sucessivamente, ao acaso e sem reposição, quatro bolas. Qual a probabilidade de:
(a) Obter na primeira extracção uma bola amarela, na segunda uma verde, depois uma branca e
finalmente uma preta?
(b) Obter o mesmo conjunto de cores independentemente da sua ordem?
1.17 (Teste de P.E. 2006/07) Considere os acontecimentos A e B de um espaço de resultados tais que
P (A ∪ B) = 0.8, e P (A − B) = 0.3. Qual o valor da P (B)?
1.18 Sejam A, B e C acontecimentos tais que P (A) = P (B) = P (C) = 41 , P (A ∩ B) = P (B ∩ C) = 0
e P (A ∩ C) = 18 . Qual a probabilidade de se verificar pelo menos um dos 3 acontecimentos?
1.19 Sabendo que A e B são acontecimentos tais que P (A) = 23 , P (B) =
P (A − B), P (A ∪ B), P (Ā ∪ B̄), P (Ā ∩ B) e P (A ∪ B̄).
1
2
e P (A ∩ B) = 13 , determine
1.20 De 100 agricultores, 50 produzem vinho, 30 produzem milho e 10 produzem vinho e milho. Escolhendo um deste agricultores ao acaso qual a probabilidade de:
(a) Ele produza vinho ou milho?
(b) Ele não produza vinho nem milho?
10.1. INTRODUÇÃO À TEORIA DA PROBABILIDADE
87
1.21 A probabilidade de um homem estar vivo daqui a 25 anos é 35 e a probabilidade da sua mulher ainda
viver na mesma ocasião é de 23 . Determine a probabilidade de daqui a 25 anos:
(a) Ambos estarem vivos.
(b) Apenas o homem estar vivo.
(c) Apenas a mulher estar viva.
(d) Apenas um estar vivo.
1.22 Em determinada gelataria 40% dos clientes escolhem o sabor chocolate, 30% escolhem o sabor limão
e 15% escolhem os dois. Seleccionou-se ao acaso um cliente dessa gelataria.
(a) Se escolheu o sabor limão, qual a probabilidade de ter escolhido também o sabor chocolate?
E vice-versa?
(b) Qual a probabilidade de escolher limão ou chocolate?
1.23 Suponha que 10% da população de certo país sofre de problemas cardíacos e que, de entre estes,
70% são fumadores. De entre os que não sofrem de problemas cardíacos 45% fumam. Seleccionada
ao acaso uma pessoa desta população:
(a) Qual a probabilidade de ser fumadora?
(b) Se for fumadora, qual a probabilidade de sofrer de problemas cardíacos?
1.24 Num clube de futebol treinam regularmente 30 jogadores, dos quais 8 são atacantes, 12 são médios e
os restantes são defesas. Independentemente dos resultados dos restantes jogadores, cada atacante
tem uma probabilidade de 3/4 de marcar golo de penalty, cada médio tem uma probabilidade de
1/2 de marcar golo por penalty e cada defesa consegue-o com probabilidade 1/5.
(a) Qual a probabilidade de que um jogador, escolhido ao acaso, marque golo devido a penalty?
(b) Dado que, num jogo, um qualquer jogador marcou um golo de penalty, qual a probabilidade
de esse jogador ser médio?
1.25 Sejam A e B acontecimentos independentes. Mostre que A e B são também acontecimentos
independentes.
1.26 Um aluno conhece bem 60% da matéria dada. Num exame com cinco perguntas, sorteadas ao acaso,
sobre toda a matéria, qual a probabilidade de vir a responder correctamente a duas perguntas?
1.27 Numa certa rua existem duas caixas Multibanco - A e B. A probabilidade de as máquinas avariarem
é, independentemente uma da outra, de 0.05 para a A e 0.01 para a B. Determine a probabilidade
de, num dia qualquer:
(a) Ambas as máquinas estarem avariadas.
(b) Apenas a máquina A estar avariada.
(c) Pelo menos uma das máquinas estar avariada.
1.28 (Teste de P.E. 2006/07) Uma urna tem oito moedas, seis honestas e duas viciadas. O resultado do
lançamento de uma moeda viciada é sempre “cara”.
(a) Escolhendo duas das oito moedas disponíveis, ao acaso e sem reposição, qual a probabilidade
de seleccionar as duas moedas viciadas.
(b) Escolhendo uma moeda ao acaso, qual a probabilidade de obter três caras em três lançamentos
sucessivos dessa moeda?
(c) Se em três lançamentos, da mesma moeda, o resultado foi sempre “cara”, qual a probabilidade
de ter escolhido a moeda viciada?
88
CAPÍTULO 10. EXERCÍCIOS
1.29 (Exame de de P.E. D - 2008/09) Um laboratório farmacêutico produz um kit, que identifica rapidamente o tipo de sangue de uma pessoa, entre os 4 possíveis: A, B, O e AB. O ensaio clínico
efectuado antes da comercialização do kit indica que 2%, 3%, 5% e 10% das pessoas com sangue
de tipo A, B, O e AB, respectivamente, são incorrectamente classificadas. Sabendo que 40% da
população tem sangue do tipo A, 10% tem sangue de tipo B, 45% tem sangue de tipo O e os
restantes têm sangue de tipo AB, calcule:
(a) A probabilidade de uma pessoa, que usou o kit, ser incorrectamente classificada.
(b) A probabilidade de uma pessoa, que usou o kit e foi incorrectamente classificada, ter sangue
de tipo AB.
10.2. VARIÁVEIS ALEATÓRIAS
10.2
89
Variáveis aleatórias
2.1 A variável aleatória (v.a.) X representa o número de doentes com gripe que procuram, por dia, o
Dr. Remédios. Em 50% dos dias, pelo menos 2 pacientes com gripe procuram o Dr. Remédios. A
sua função de probabilidade é dada por:
0 1 2 3
X
p 0.2 q 0.3
(a) Determine p e q.
(b) Determine a função de distribuição da v.a. X e esboce o seu gráfico. Comente-o.
(c) Determine a função de probabilidade das v.a.’s Y = 40X e W = max(X, 1).
2.2 A v.a. X representa o número de pontos que saem no lançamento de um determinado dado. A sua
função de distribuição segue-se:

0,
x<1




1/6,
1
≤
x<2



1/4, 2 ≤ x < 4
F (x) =
1/2, 4 ≤ x < 5




7/12,
5≤x<6



1,
x≥6
(a) Calcule as seguintes probabilidades, usando a função de distribuição:
i)
ii)
iii)
iv)
A probabilidade de o número de pontos saídos ser no máximo 3.
P (1 < X ≤ 2).
P (2 ≤ X < 6).
A probabilidade de o número de pontos saídos não distar de 2 pontos por mais de 1 ponto.
(b) Determine a função de probabilidade de X e confirme os resultados acima obtidos.
(c) Pode afirmar que o dado é equilibrado? Justifique.
(d) Sabendo que o número de pontos saído é pelo menos 4, calcule a probabilidade de saírem 6
pontos.
2.3 O Sr. Matias possui um café nas vizinhanças de um estádio de futebol. Da sua experiência, o Sr.
Matias sabe que, em dias de futebol, costuma vender ou 50, ou 100, ou 150 ou 200 sandes, com
probabilidades 0.2, 0.4, 0.3 e 0.1, respectivamente.
O Sr. Matias costuma fazer 100 sandes e quando estas se esgotam recorre a um fornecedor da terra
que lhe garante o envio atempado de mais sandes.
(a) Qual a probabilidade de as sandes preparadas pelo Sr. Matias serem insuficientes para satisfazer
a procura?
(b) Calcule a probabilidade de vender 200 sandes, num dia em que as sandes por ele feitas não
satisfazem a procura.
2.4 Seja X uma v.a. com a seguinte função densidade probabilidade:

 k + x, −1 ≤ x < 0
k − x, 0 ≤ x < 1
f (x) =

0,
c.c.
(a) Determine o valor da constante k.
(b) Determine a função de distribuição de X e esboce o seu gráfico.
(c) Determine P (X > 0).
(d) Determine P (X > 0.5|X > 0).
90
CAPÍTULO 10. EXERCÍCIOS
2.5 Considere funções densidade de probabilidade, representadas nos seguintes gráficos.
(a) Determine o valor das constantes a e b.
f (x) 6
f (x) 6
a
c
c
J
J
J
J
J
J cb`
J
cb`
−1
0
1
1
2
c
−2b
x
0
b`
b
x
(b) Qual a relação entre a e b?
f (x) 6
b
T
T
T
−a
0
a
T
T
b
x
2.6 Seja X uma v.a. com a seguinte função densidade probabilidade:
4x, 0 < x < k
f (x) =
0,
c.c.
(a) Esboce o gráfico da função densidade e determine o valor da constante k.
(b) Determine a função de distribuição da v.a. X.
(c) Calcule P (1/4 ≤ X ≤ 1/3), a mediana e o quantil de ordem 0.95.
(d) Identifique através da função de distribuição ou da função densidade, a distribuição das v.a.’s
Y = X − 1 e T = X 3.
2.7 A quantidade de tempo, em horas, que um computador funciona até avariar é uma v.a. com a
seguinte função densidade probabilidade:
x
k e− 100 , x ≥ 0
f (x) =
0,
x<0
(a) Qual a probabilidade de o computador trabalhar entre 50 e 150 horas antes de avariar?
(b) Qual a probabilidade de o computador funcionar menos de 100 horas até avariar? E exactamente 100 horas?
(c) Qual a probabilidade de o computador avariar após 200 horas de funcionamento, sabendo que
já funcionou mais de 100 horas?
2.8 (Exame de P.E. 2006/07) Seja X uma variável aleatória com função densidade

−1 < x ≤ 0;
 c(1 + x),
c(1 − x2 ),
0 < x < 2;
f (x) =

0,
outros valores de x;
(a) Mostre que c = 2/3 e determine a função de distribuição.
(b) Calcule P (X ≤ 0|X ≤ 1).
91
10.2. VARIÁVEIS ALEATÓRIAS
2.9 Determine o valor médio e a variância da variável aleatória discreta X com função de probabilidade:
P (X = 0) = 81 P (X = 1) = 38 f (2) = 83 P (X = 3) = 18 . Calcule ainda:
1
E(g(X)), com g(X) = X 3 , E 1+X
e E(X 2 ).
2.10 Seja X uma v.a. tal que P (X = 0) = 41 , P (X = 1) = p2 , P (X = 2) =
com 0 ≤ p ≤ 21 . Determine p de forma a que V (X) seja mínima.
5
8
−
p
2
e P (X = 3) = 18 ,
2.11 Numa lotaria foram emitidos 10000 bilhetes. Sorteia-se 1 prémio de 25000 unidades monetárias
(u.m.) e 10 prémios de 2500 u.m.. Seja X a v.a. que representa o valor do prémio de um bilhete
qualquer.
(a) Determine a função de probabilidade de X.
(b) Qual a probabilidade de um bilhete não ter qualquer prémio?
(c) Qual a probabilidade de um bilhete ter pelo menos 2500 u.m.?
(d) Determine o E(X), V (X) e CV (X).
2.12 Uma comissão de alunos está a organizar uma festa da faculdade. Os alunos vão comprar 200 litros
de cerveja. Um fornecedor deste líquido (A) cobra 1 unidade monetária (u.m.) por litro permitindo
a devolução da cerveja que sobrar (e que não tem de ser paga) e um outro fornecedor (B) cobra
0.5 u.m. por litro, não admitindo devoluções. Os alunos, independentemente de quanto lhes custe
a cerveja, cobram 1.5 u.m. por litro.
Sabendo que, se estiver bom tempo - o que acontecerá com probabilidade 0.8 - os alunos conseguem
vender os 200 litros de cerveja, mas se estiver mau tempo só vendem metade, a quem devem comprar?
2.13 Seja X uma v.a. com a seguinte função de distribuição:
0,
x<0
F (x) =
1 − (x + 1)e−x , x ≥ 0
(a) Determine a função densidade probabilidade de X.
(b) Determine E(X) e V (X).
2.14 Determine E(X), E(X − 1), V (X), E(X(X − 1)), E(eX ), a mediana e o coeficiente de variação
da v.a. X, que tem a seguinte função densidade probabilidade:

x

0≤x≤1

2,



 1,
1<x≤2
2
f (x) =
3−x

2<x≤3


2 ,


 0,
x<0 ∨ x>3
2.15 A v.a. X tem a seguinte função densidade probabilidade:
(
k sin(x), 0 ≤ x ≤ π
f (x) =
0,
c.c.
(a) Determine o valor da constante k.
(b) Determine E(X) e E(cos(X)).
(c) Sabendo que V (X) =
(d) Determine V (5X − 4).
π2
4
− 2, determine E(X 2 ).
92
CAPÍTULO 10. EXERCÍCIOS
2.16 (Teste de P.E. D - 2008/09) Uma empresa de produtos químicos fabrica um composto que vende
em doses unitárias de 1 litro. Suponha que a fracção de álcool numa dose unitária do composto é
uma variável aleatória X, com função densidade de probabilidade dada por:
kx3 (1 − x),
0 ≤ x ≤ 1;
f (x) =
0,
outros valores de x;
(a)
(b)
(c)
(d)
Mostre que k = 20.
Determine a função de distribuição.
Sabendo que E(X 2 ) = 10/21, calcule V (5X − 1).
Sabe-se que o custo de produção de uma dose de composto é sempre 0.8e/l, mas o seu preço
de venda em e/l, V , depende do valor de X que lhe corresponde, sendo definido da seguinte
forma:
1.2,
1/3 ≤ X ≤ 2/3;
V =
1.0, outros valores de X;
Obtenha a função de probabilidade da variável aleatória, L = V − 0.8, o lucro obtido por cada
dose daquele composto.
93
10.3. VECTORES ALEATÓRIOS
10.3
Vectores Aleatórios
3.1 (Teste de P.E. 2006/07) Numa empresa de construção, o número Y de novos trabalhadores por
semana, é uma variável aleatória de valor médio 38
15 . O número de acidentes de trabalho que
ocorrem por semana na mesma empresa, X, é também uma variável aleatória. O quadro que se
segue tem a função de probabilidade conjunta de (X, Y ).
X\Y
0
1
0
c
2c
2
2c
3c
a
3c
4c
(a) Complete a função de probabilidade conjunta e calcule E(Y (Y − 1)) e P (X + Y ≥ 3).
(b) Qual a probabilidade de ocorrer um acidente de trabalho, numa semana onde foram admitidos
dois novos trabalhadores?
(c) Determine a covariância entre as variáveis X e Y . Comente o resultado.
3.2 Numa empresa de aluguer de aviões informam-nos de que a procura diária de aviões de passageiros,
X, e a procura diária de aviões de transporte rápido de correio, Y , constituem um par aleatório
(X, Y ), cuja função de probabilidade conjunta é dada por:
X\Y
0
1
2
3
0
0
0.1
0
0.2
1
2
0.05
0.1
0.1
0.5
0.25
0.35
p + 0.2
p
(a) Qual a probabilidade de, num dia, a procura de aviões de passageiros ser inferior à procura de
aviões de transporte rápido de correio?
(b) Determine a função de probabilidade de X|Y = 1 e calcule E(X|Y = 1).
(c) Para um dia em que foi pedido um avião de transporte rápido de correio, qual a probabilidade
de terem sido procurados 1 ou 2 aviões de passageiros?
(d) Qual a procura diária média de aviões de passageiros?
(e) Deduza a função de probabilidade da procura total diária de aviões de aluguer.
(f) Determine a procura diária total média de aviões de aluguer.
(g) Sabendo que V (X) = 0.8875, determine Cov(X, Y ), V (X − 2Y ) e ρ(X, Y ).
3.3 (Exame de P.E. 2006/07) Seja (X, Y ) um par aleatório, onde X representa o número diário de
imóveis vendidos numa agência imobiliária e Y a v.a. definida por:
(
0, se a agência imobiliária não fecha durante o horário de almoço;
Y =
1,
se a agência imobiliária fecha durante o horário de almoço;
Sabe-se que:
• X tem distribuição B(2, 0.6) e os valores da v.a. Y ocorrem com a mesma probabilidade.
• Os acontecimentos {X = 1} e {Y = 0} são independentes.
• P (X = 2, Y = 1) = 0.12.
(a) Construa a tabela da função de probabilidade conjunta e marginais associada ao par aleatório
(X, Y ).
94
CAPÍTULO 10. EXERCÍCIOS
(b) As variáveis X e Y são independentes? Justifique.
(c) Calcule V (Y − 2X).
(d) Qual a probabilidade de venderem 2 imóveis, nos dias em que a agência não fecha durante o
período de almoço?
3.4 Numa fábrica produzem-se ratos de computador, que podem sofrer de dois tipos diferentes de
defeitos - digamos A e B. Para cada rato produzido definem-se duas variáveis aleatórias, X e Y ,
representando, respectivamente, o número de defeitos do tipo A e do tipo B a si associados:
0, rato sem defeito do tipo B
0, rato sem defeito do tipo A
Y =
X=
1, rato com defeito do tipo B
1, rato com defeito do tipo A
Sabendo que P (Y = 0) = 0.80, P (X = 1|Y = 1) = 0.7 e P (X = 1|Y = 0) = 0.1:
(a) Determine a função de probabilidade conjunta do par aleatório (X, Y ).
(b) Justifique se para cada rato o número de defeitos do tipo A é independente do número de
defeitos do tipo B.
(c) Calcule a P (X < Y ).
(d) Qual a probabilidade de o número total de defeitos num qualquer rato da produção ser inferior
a 2?
3.5 Suponhamos que M1 e M2 são duas máquinas que funcionam independentemente e sejam X e Y
variáveis aleatórias que representam, respectivamente, no diário de avarias de M1 e o no diário de
avarias de M2 . Sabendo que:
• A máquina M1 nunca avaria mais do que uma vez por dia e, que a máquina M2 avaria, no
máximo, duas vezes por dia;
• A probabilidade de M1 não avariar é de 0.7;
• A probabilidade de M2 não avariar é 0.5 e a de avariar duas vezes é 0.3,
Construa a tabela da função de probabilidade conjunta e marginais associada ao par aleatório (X, Y ).
3.6 Sejam X e Y duas v.a.’s tais que V (X) = σ 2 e V (Y ) = 2σ 2 . Considere novas v.a.’s, T = 2X + Y
e W = X − Y . Sabendo que V (W ) = σ 2 , calcule:
(a) O coeficiente de correlação entre X e Y .
(b) V (T ).
(c) Cov(W, T ).
3.7 Seja (X, Y ) um par aleatório para o qual V (X) = V (Y ) = σ 2 e coeficiente de correlação ρ. Sejam
as novas v.a.’s U = X + Y e W = X − Y . Mostre que V (W ) = 2σ 2 (1 − ρ) e Cov(U, W ) = 0.
3.8 Seja (X, Y ) um par aleatório com a seguinte função densidade probabilidade conjunta:
(
f (x, y) =
k(x + 2y), 0 < x < 1, 0 < y < 1
0,
c.c.
(a) Determine k.
(b) Determine as funções densidade marginais de X e Y .
(c) As variáveis X e Y são independentes?
10.3. VECTORES ALEATÓRIOS
(d) Calcule P ( 15 < X < 25 ), e P (X < Y ).
(e) Calcule P ( 15 < X < 25 |Y > 12 ).
3.9 Seja (X, Y ) um par aleatório com a seguinte função densidade probabilidade conjunta:
f (x, y) =
k, x > 0, y < 0, y > x − 2
0, restantes valores de (x, y)
(a) Determine k.
(b) As variáveis X e Y são independentes?
95
96
10.4
CAPÍTULO 10. EXERCÍCIOS
Principais distribuições
4.1 Um consumidor queixou-se às autoridades que no supermercado do Sr. Manuel se vendiam latas de
cogumelos com o prazo de validade ultrapassado. No seguimento desta denúncia um inspector das
actividades económicas dirigiu-se ao referido supermercado e seleccionou, ao acaso e sem reposição,
6 latas - do total de 50 que o Sr. Manuel ainda tinha para vender.
Como na realidade ainda restavam 7 latas com o prazo de validade ultrapassado, qual a probabilidade
de o Sr. Manuel ser multado (isto é, de o inspector descobrir pelo menos uma lata com o prazo
ultrapassado)?
4.2 De forma a proceder a uma classificação geral do estado das praias Portuguesas, uma comissão
Europeia vai inspeccionar 10 praias, seleccionadas ao acaso de entre as 100 existentes. A comissão
atribui a classificação de Bom se pelo menos 8 das 10 praias inspeccionadas estiverem em bom
estado. Sabendo que, da totalidade das 100 praias, 15 não apresentam boas condições, qual a
probabilidade de Portugal:
(a) Obter uma classificação de Suficiente, pelo facto da comissão só ter encontrado 7 praias em
bom estado?
(b) Obter uma boa classificação?
(c) Se a comissão só inspeccionasse 5 praias, qual a probabilidade de não encontrar nenhuma em
mau estado?
(d) Nas praias inspeccionadas quantas se esperam que estejam em bom estado?
4.3 O senhor Sousa tem uma empresa que compra e vende selos e outros artigos de coleccionismo. Ele
guarda 20 selos dentro de uma bolsa preta, estando ainda cada um deles metido num envelope
opaco. 6 destes selos valem 100 euros cada um e os restantes nada valem. O senhor Sousa, para
promover a venda, cobra 20 euros por cada selo, mas não permitindo que o cliente veja o conteúdo
do envelope. Suponha que um cliente compra 5 selos.
(a) Qual a probabilidade dos cinco selos nada valerem?
(b) Qual a probabilidade do cliente não perder nem ganhar dinheiro com a compra?
4.4 Num determinado percurso de avião, a probabilidade de uma pessoa qualquer que aí viaje pedir uma
refeição vegetariana é de 0.2. Supondo que em determinado dia viajam 10 pessoas no avião, calcule
a probabilidade de:
(a) Ninguém pedir refeição vegetariana.
(b) Todos pedirem refeição vegetariana.
(c) Pelo menos uma pedir refeição vegetariana.
4.5 Determinado exame é constituído por 5 questões de escolha múltipla, em que cada questão tem 4
opções de resposta possíveis - apenas uma sendo a correcta. Supondo que um aluno que vai fazer
o exame responde a tudo ao acaso, qual é a probabilidade de ele acertar a mais de metade das
questões? Qual é o número médio de respostas correctas? E o seu desvio padrão?
4.6 Sabe-se que 5% dos copos produzidos em determinada fábrica apresentam pequenos defeitos.
Seleccionando-se da produção da fábrica, ao acaso, 50 copos, qual a probabilidade de:
(a) Nenhum ser defeituoso?
(b) Um ser defeituoso?
(c) No máximo 1 ser defeituoso?
(d) Calcule o número médio de copos defeituosos nesta amostra e o seu desvio padrão.
97
10.4. PRINCIPAIS DISTRIBUIÇÕES
4.7 Na sala de aula de uma escola, 2 meninos lançam ao ar moedas equilibradas. O João faz 10
lançamentos e o Pedro 15. Qual a probabilidade de, no total dos lançamentos, saírem exactamente
12 caras?
4.8 Verifica-se que, relativamente a um determinado dado, quando ele é lançado, a probabilidade de sair
um número par é duas vezes superior à probabilidade de sair um número ímpar.
(a) Se X representar a v.a. que conta o número de vezes que sai um número par em 4 lançamentos
deste dado, determine a sua função de probabilidade.
(b) Considere a v.a. Y = “número de lançamentos necessários até obter um número ímpar”.
i. Qual o valor médio, coeficiente de variação e moda de Y ?
ii. Qual a probabilidade de ser necessário lançar 4 vezes o dado, para obter um número
ímpar?
iii. Qual a probabilidade de ser necessário lançar pelo menos 2 vezes o dado, para obter um
número ímpar?
4.9 Numa prisão existem 1500 presos, dos quais 4% cometeram homicídio por envenenamento. Seleccionando-se aleatoriamente 8 presos para executarem os trabalhos na cozinha da prisão, qual a probabilidade de que 2 deles sejam deste tipo de homicidas?
4.10 Uma lista de clientes de uma empresa é constituída por 1000 endereços de clientes. Destes, 300
compraram nos últimos 3 meses, pelo menos um produto da empresa. Com o objectivo de avaliar
da aceitação de um novo produto, 25 clientes daquela lista foram escolhidos ao acaso e sondados
acerca do novo produto. Qual a probabilidade de no máximo 2 dos 25 clientes escolhidos, fazerem
parte do grupo dos que realizaram alguma compra durante os últimos 3 meses?
4.11 O número de chamadas de emergência que um serviço de ambulâncias recebe por dia é uma v.a. de
Poisson. Sabendo que a probabilidade de não haver nenhuma chamada num dia é de 0.15, calcule:
(a) a probabilidade de haver apenas uma chamada num dia.
(b) a probabilidade de haver 2 chamadas num dia.
(c) a probabilidade de haver no máximo 3 chamadas num dia.
(d) a probabilidade de haver pelo menos 4 chamadas num dia.
(e) o número médio de chamadas por dia, o seu desvio padrão e coeficiente de variação.
4.12 Suponha que X é uma v.a. com distribuição de Poisson. Se P (X = 2) =
P (X = 0) e P (X = 3).
2
3 P (X
= 1), calcule
4.13 Suponha que, o número de pessoas que utilizam uma caixa multibanco é um processo de Poisson
de taxa λ = 10/hora. Calcule;
(a) a probabilidade de não ir ninguém à caixa multibanco durante 1 hora.
(b) a probabilidade de irem 20 pessoas à referida caixa durante 4 horas.
(c) O número médio de visitas à caixa multibanco durante 4 horas e o seu coeficiente de variação.
4.14 Na portagem da ponte 25 de Abril o número de veículos automóveis que passa em cada cabine de
pagamento da portagem, por minuto, segue uma distribuição de Poisson com valor médio 1 veículo.
Supondo que em determinado minuto estão abertas 10 cabines, qual a probabilidade de serem, no
total, atendidos 11 condutores nesse minuto?
4.15 Suponha que num livro de 500 páginas existem 300 erros tipográficos, distribuídos aleatoriamente
por todo o livro. Assumindo que o número de erros segue uma distribuição de Poisson, determine a
probabilidade de uma dada página conter:
(a) 2 erros tipográficos.
98
CAPÍTULO 10. EXERCÍCIOS
(b) Pelo menos 2 erros tipográficos
4.16 Um grande armazém de venda de material de vidro de laboratório emprega 100 pessoas. Tem-se
verificado que o número de peças quebradas, por empregado e por mês, segue uma distribuição de
Poisson de valor médio 1.5. Cada peça partida representa um prejuízo de 40 cêntimos, pelo que o
armazém só arca com a despesa de um máximo de 3 peças por mês e por empregado. A partir deste
valor é no salário do empregado que se desconta a despesa.
(a) Qual a probabilidade de um empregado escolhido ao acaso ter de pagar do seu bolso algum
prejuízo num qualquer mês?
(b) Considere agora a variável aleatória que representa o prejuízo do armazém, por mês e por
empregado. Determine a sua função de probabilidade, qual é esse prejuízo médio e o seu
desvio padrão.
4.17 Em determinada empresa 2% das chamadas telefónicas recebidas são enganos. Qual a probabilidade
aproximada de, em 200 telefonemas, haver pelo menos 2 enganos? Qual o número médio de enganos?
4.18 Numa feira popular a probabilidade de uma pessoa contrair uma intoxicação alimentar é de 0.0005.
Determine a probabilidade de, em 300 pessoas, 2 ficarem intoxicadas.
4.19 Determinado jogo consiste em acertar com um dardo num segmento de recta de comprimento 1
metro, colocado na posição horizontal. Admitindo que se acerta apenas sobre o segmento de recta
(e não fora dele) e que se tem igual probabilidade de acertar em qualquer ponto:
(a) Identifique a função densidade probabilidade da v.a. X que representa a distância, em metros,
do ponto onde se acertou ao extremo esquerdo do segmento.
(b) Calcule P (0.4 < X < 0.6).
(c) Qual o valor médio do ponto onde se acerta? E o seu coeficiente de variação?
(d) Calcule P (0.4 < X < 0.6|X > 0.5).
(e) Seja A =]0.4, 0.6[, a região central do segmento de recta compreendida entre os 4cm e os
6cm. Qual a probabilidade de, em 5 lançamentos do dardo, acertar 3 vezes em A?
4.20 Num posto dos correios o tempo (minutos) que a D. Hermínia demora a atender cada um dos seus
clientes é uma v.a. exponencial de valor médio 3 minutos. Determine:
(a) A função de distribuição de X.
(b) A probabilidade de um cliente demorar mais de 5 minutos a ser atendido.
(c) A probabilidade de um cliente demorar mais de 3 minutos a ser atendido.
(d) A probabilidade de um cliente demorar mais de 5 minutos a ser atendido, sabendo que já está
a ser atendido há pelo menos 2 minutos. Compare com a probabilidade anterior e comente.
(e) O coeficiente de variação do tempo de atendimento.
4.21 Admita que os clientes chegam a uma loja de acordo com um processo de Poisson de média λ =
2/minuto. Calcule a probabilidade:
(a) do tempo entre chegadas consecutivas ser superior a um minuto.
(b) do tempo entre chegadas consecutivas ser inferior a quatro minutos.
(c) do tempo entre chegadas consecutivas estar entre um e dois minutos.
(d) do tempo de espera pelo terceiro cliente ser superior a 5 minutos.
4.22 Demonstre o Teorema 4.29.
4.23 Seja X uma v.a. com distribuição N (100, 202 ). Calcule:
(a) P (X < 125).
99
10.4. PRINCIPAIS DISTRIBUIÇÕES
(b) P (X > 115).
(c) P (60 < X < 140).
4.24 Seja X uma v.a. normal com média 12 e variância 2. Determine c tal que:
(a) P (X < c) = 0.1.
(b) P (X > c) = 0.25.
(c) P (12 − c < X < 12 + c) = 0.95.
4.25 Admita que o Q.I. das pessoas de determinado país é uma v.a. X com distribuição normal de média
90 e desvio padrão 12. Determine:
(a) A percentagem da população com Q.I. entre 85 e 95.
(b) A percentagem da população com Q.I. entre 78 e 102.
(c) O valor c > 0 tal que a percentagem da população com Q.I. entre 90 − c e 90 + c seja de 95%.
(d) 10000 pessoas desta população concorreram ao selecto clube SMART, que apenas admite
indivíduos com Q.I. superior a 120. Quantas destas pessoas espera o clube vir a admitir?
4.26 A altura (metros) a que crescem os pinheiros é uma v.a. X normalmente distribuída com desvio
padrão igual a 1 metro. Supondo que 90% dos pinheiros atingem uma altura de pelo menos 16
metros, qual a altura média dos pinheiros?
4.27 Numa fábrica de embalar arroz este trabalho é executado por uma máquina. A quantidade de arroz
(Kg) que entra nos pacotes é uma v.a. X seguindo uma distribuição normal de valor médio µ e
desvio padrão σ.
(a) Determine σ sabendo que a quantidade embalada difere da sua média por menos de 100g, em
95 % dos casos.
(b) Supondo que µ = 1Kg, determine a probabilidade de, em 10 pacotes de arroz embalados por
esta máquina, 2 terem menos de 0.9Kg.
4.28 Considere X uma v.a. Normal de valor médio 2 e variância 9. Seja I um intervalo do tipo [4 − a, a].
Determine o valor de a de modo a que P (X ∈ I) = 0.90.
4.29 A altura (metros) a que um atleta salta é uma v.a. Normal de média 1.8m e desvio padrão 20cm.
Sabendo que 20% das vezes o atleta consegue saltar acima de h, determine h.
4.30 Num jardim zoológico existem um leão e um tigre que consomem, independentemente um do outro,
o mesmo tipo de alimentação - carne de 2a . A quantidade de carne (Kg) que cada um deles come
por dia são variáveis aleatórias, representadas por X1 para o leão e X2 para o tigre, respectivamente,
normalmente distribuídas com média 4Kg e desvio padrão 0.5Kg. Determine a probabilidade de,
num determinado dia:
(a) Ambos os animais comerem menos de 3Kg de carne cada.
(b) O leão comer mais do que o tigre.
(c) Metade do que o leão come juntamente com
3
4
do que o tigre come, exceder os 4Kg.
4.31 Um restaurante vende comida a peso e constatou que a quantidade de comida vendida (Kg) tem
distribuição Normal, dependendo os seus parâmetros de o cliente ser homem ou mulher - caso seja
mulher a média é de 0.4 Kg e o desvio padrão 0.1 Kg e caso seja homem a média é de 0.5 Kg e
o desvio padrão é de 0.2 Kg. Sabendo que os clientes são 55% mulheres e 45% homens, e que a
quantidade de comida consumida é independentes entre clientes:
(a) Determine a probabilidade de um cliente qualquer consumir menos de 0.5 Kg de comida.
100
CAPÍTULO 10. EXERCÍCIOS
(b) Sabendo que um cliente consumiu mais de 0.6 Kg de comida, qual a probabilidade de ser
homem?
(c) Num grupo de 4 mulheres e 6 homens qual a probabilidade de se consumir menos de 5 Kg de
comida?
4.32 (Teste de PE 2006/07) Um elevador está preparado para suportar uma carga até 450 kg. Sempre
que este valor é ultrapassado o elevador não funciona. Um estudo recente indica que o peso, das
pessoas que utilizam esse elevador, é uma variável aleatória com distribuição Normal de valor médio
70 kg.
(a) Sabendo que a probabilidade de uma pessoa (que utiliza o elevador) pesar menos de 60 kg é
0.0228, determine o desvio padrão desta variável aleatória.
(b) Se entrarem 6 pessoas no elevador, qual a probabilidade de o elevador não funcionar devido
ao excesso de peso?
4.33 (Teste de P.E. D 2005/06) Um foguete espacial é constituído por 3 partes distintas, cápsula, corpo
e depósitos. Representem as v.a.’s X, Y e W o peso da cápsula, o peso do corpo do foguete e o
peso dos depósitos, respectivamente, em toneladas. Sabe-se que X ∼ N (5, 1), Y ∼ N (10, 22 ) e
W ∼ N (7, 22 ), sendo as três variáveis independentes entre si.
(a) Qual a probabilidade de o peso da cápsula estar compreendido entre 3 e 7 toneladas?
(b) Qual o peso h que o corpo do foguete ultrapassa em 2.5% das vezes?
(c) Qual a probabilidade de o peso da cápsula mais o peso dos depósitos excederem o peso do
corpo do foguete?
4.34 Admita que X é uma v.a. com distribuição t com 14 graus de liberdade, X ∼ t14 . Determine o
valor de c, tal que:
(a) P (X ≤ c) = 0.75;
(b) P (X ≤ c) = 0.05;
(c) P (|X| > c) = 0.4.
4.35 Suponha que X é uma v.a. com distribuição χ2 com 10 graus de liberdade, X ∼ χ210 . Determine
o valor de c, tal que:
(a) P (X ≤ c) = 0.95;
(b) P (X ≤ c) = 0.05.
10.5. TEOREMA LIMITE CENTRAL
10.5
101
Teorema Limite Central
5.1 Numa loja de conveniência cada pessoa gasta, em média, 10e, com um desvio padrão de 3.75e. Qual
a probabilidade de 100 clientes gastarem mais de 1100e, admitindo que os gastos são independentes
de pessoa para pessoa?
5.2 O número de sismos no Japão, por mês, é uma v.a. com média 5 sismos e desvio padrão 2 sismos.
Admitindo que os sismos são independentes entre si, determine a probabilidade de nos próximos 40
anos haver no máximo 2300 sismos.
5.3 Uma empresa vende caixas com biscoitos e, quando lhe é solicitado, envia-as pelo correio. Para
evitar pesar estas caixas, cobra sempre o valor de portes de correio correspondente a admitir que
qualquer caixa pesa 2508g.
Cada caixa leva 100 biscoitos e o peso da embalagem plástica é desprezável.
Se soubermos que o peso de cada biscoito é variável mas que em média pesa 25g com um desvio
padrão de 8g, determine a probabilidade do valor pago em portes de correio com o envio de uma
caixa ser inferior ao valor que pagaria, caso a caixa fosse pesada.
5.4 Ao adicionar números, um computador arredonda cada número para o inteiro mais próximo. Admita
que os erros cometidos são v.a.’s independentes e identicamente distribuídas (i.i.d.) com valor médio
igual a 0 e variância igual a 1/12.
Se 1200 números forem adicionados, qual a probabilidade aproximada de que o erro total cometido
não ultrapasse 15.4?
5.5 Envelopes de avião são empacotados em grupos de 100, sendo depois pesados. Supondo que o
peso de cada envelope é uma v.a. com valor médio igual a 1 grama e desvio padrão de 0.05 g,
independentemente de envelope para envelope, determine:
(a) a probabilidade de que um pacote, com exactamente 100 envelopes, pese mais de 100.5 g.
(b) a probabilidade de que a média dos pesos dos 100 envelopes de um pacote, diste do respectivo
valor médio por uma quantidade superior a 0.01g.
5.6 Numa determinada estufa de produção de tulipas vão-se semear 240 bolbos desta flor. Sabe-se que
em média cada bolbo produz 4 flores, com um desvio padrão de 2 flores. Qual a probabilidade
aproximada de se conseguir obter uma produção final de mais de 1000 tulipas? Justifique.
5.7 Na população das mulheres cerca de 20% estão grávidas. Supondo que se selecciona ao acaso 250
mulheres, qual a probabilidade de que 50 estejam grávidas? E qual a probabilidade de que pelo
menos 50 estejam grávidas?
5.8 Um aviário vende ovos em caixas de 1 dúzia, verificando-se que cerca de 1% dos ovos se partem no
transporte para os seus locais de comercialização. Num contentor com 80 caixas qual a probabilidade
de se encontrarem entre 5 e 15 ovos partidos?
5.9 O número de utentes diários de uma máquina de venda de selos tem uma distribuição de Poisson
com valor médio 20. Determine a probabilidade de num mês de 30 dias:
(a) Usarem a máquina entre 580 e 621 pessoas.
(b) Usarem a máquina 580 pessoas.
5.10 Sabe-se que o número de automóveis que entram numa auto-estrada num período de 10 segundos
é uma v.a. com distribuição de Poisson de valor médio 3.
Qual a probabilidade aproximada de entrarem 20 ou mais automóveis durante 30 segundos?
102
10.6
CAPÍTULO 10. EXERCÍCIOS
Estimação Pontual
6.1 Considere a população formada pelo número de filhos por família (X) num determinado país, em que
X = 0, 1, 2, 3, 4 (não há famílias com mais de 4 filhos). Suponha que se conhece a sua distribuição
de probabilidade:
0
1
2
3
4
X
0.15 0.25 0.30 0.20 0.10
(a) Quais os valores populacionais de µ e σ 2 ?
(b) Desta população recolhe-se uma amostra aleatória constituída por 2 famílias - (X1 , X2 ). Qual
a distribuição de probabilidade de X1 e X2 e os respectivos parâmetros µ e σ 2 ?
(c) Suponha que recolheu a seguinte amostra aleatória de 10 famílias:
(1, 3, 0, 0, 2, 3, 0, 2, 4, 1).
Com base nesta amostra estime pontualmente µ e σ 2 . Estime ainda o erro padrão da estimativa
de µ. Comente.
6.2 Considere que se seleccionou uma amostra aleatória (X1 , X2 , . . . , Xn ) de uma população com valor
médio µ e variância σ 2 .
Pn
Xi
é estimador centrado e consistente da média populacional.
(a) Mostre que X = i=1
n
2X1 + 3X2 + 5X3
X1 + Xn
e θ̂2 =
também são estimadores centrados de
(b) Mostre que θ̂1 =
2
10
µ. Qual é melhor? São consistentes?
(c) Mostre que (X)2 não é estimador centrado de µ2 .
6.3 Suponha que seleccionou uma amostra aleatória (X1 , X2 , . . . , Xn ) de uma população com distribuição U (0, θ), isto é, com função densidade:
1
θ, 0 ≤ x ≤ θ
f (x) =
0,
c.c.
(a) Mostre que 2X é o estimador dos momentos de θ.
(b) Verifique se o estimador da alínea anterior é centrado e consistente.
(c) Dada a amostra (1.215,
P 1.580, 0.726, 2.843, 3.394, 0.612, 2.621, 1.181, 2.930, 0.317), estime
o valor de θ. Nota:
xi = 17.42.
6.4 (Teste de P.E. - 2006/07) Seja (X1 , X2 , . . . , Xn ) uma amostra aleatória, extraída de uma população
com distribuição Geométrica.
(a) Determine o estimador de p usando o método dos momentos e o método da máxima verosimilhança.
(b) Determine o estimador de máxima verosimilhança do valor médio de X. Verifique se o estimador é consistente para a estimação do valor médio.
6.5 Considere a experiência aleatória que consiste em contar o número de vezes que se lança um
dado (eventualmente não equilibrado) até sair um número par. Em 15 realizações da experiência obtiveram-se os seguintes resultados:
1
9
2
2
1
9
2
3
1
1
4
1
7
2
1
(a) Estime a probabilidade de sair um número par (num lançamento do dado).
(b) Estime a probabilidade de ser necessário lançar mais de 2 vezes o dado para obter um número
par.
103
10.6. ESTIMAÇÃO PONTUAL
6.6 Considere a amostra aleatória (X1 , X2 , . . . , Xn ) de uma população com distribuição Bin(r, p), com
r conhecido.
(a) Determine o estimador dos momentos de p.
(b) Verifique que a função log-verosimilhança é:
n
n
n
X
X
X
r
l(p) =
ln
+ ln(p)
xi + ln(1 − p)(nr −
xi ),
xi
i=1
i=1
i=1
se xi ∈ {0, 1, . . . , r}.
(c) Determine o estimador de máxima verosimilhança de p.
(d) Verifique se os estimadores obtidos, nas alíneas anteriores, são centrados e consistentes.
6.7 Considere a amostra aleatória (X1 , X2 , . . . , Xn ) de uma população com com função densidade,
f (x) =
θ
,
xθ+1
x>1
(θ > 0).
θ
(a) Sabendo que E(X) = θ−1
, θ > 1, determine o estimador dos momentos de θ.
(b) Verifique que a função log-verosimilhança é dada por:
l(θ) = n ln(θ) − (θ + 1)
n
X
ln(xi ),
se xi > 1,
i = 1, . . . , n.
i=1
(c) Determine o estimador de máxima verosimilhança de θ.
(d) Determine o estimador de máxima verosimilhança de β = 1/θ.
6.8 Sabe-se que a idade de determinada camada do subsolo segue uma distribuição Normal com média
de 0.5 milhões de anos e um desvio padrão de 20000 anos. Seleccionadas ao acaso 10 amostras de
subsolo calcule a probabilidade de a média amostral das suas idades ser superior a 490000 anos.
6.9 Considere uma amostra aleatória de dimensão 25, extraída de uma população Normal de média 100
e desvio padrão 10.
(a) Qual a probabilidade de a média amostral cair no intervalo de E(X) − 1.96 × SE(X) a
E(X) + 1.96 × SE(X)?
(b) Quanto deverá ser o tamanho amostral tal que a amplitude do intervalo definido em (a)
diminua para 2.
6.10 O tempo de espera em pista para a descolagem de cada avião no aeroporto de Lisboa é uma v.a.
com valor médio 4 minutos e desvio padrão 2.5 minutos. Suponha que se selecciona ao acaso 50
aviões, para se registarem os seus correspondentes tempos de espera. Calcule a probabilidade de a
média dos tempos de espera exceder os 5 minutos.
6.11 Assuma que o número de ovos que as tartarugas verdes depositam nas praias, em cada desova, é uma
v.a. de P oisson, com valor médio 15 ovos. Seleccionando ao acaso uma amostra de 100 tartarugas
verdes, qual a probabilidade de que a média do número de ovos destas esteja compreendido entre o
seu valor médio e ± 3 vezes o seu erro padrão.
6.12 Suponha que o tempo de vida de determinada espécie de burros é uma v.a. com distribuição
exponencial, de valor médio 25 anos. Seleccionando ao acaso uma amostra de 40 burros desta
espécie, qual a probabilidade de que a média dos seus tempos de vida seja inferior a 20 anos?
6.13 No país das Maravilhas a proporção de loucos é de 0.45. Suponha que se pretende seleccionar uma
amostra aleatória de 500 habitantes deste país. Qual a probabilidade de a proporção de loucos que
vão calhar na amostra exceder 0.5?
6.14 Numa população Normal de média desconhecida e desvio padrão 5 calcule a probabilidade de a
variância de uma amostra aleatória de dimensão 20 dessa população estar compreendida entre 26 e
58.
104
CAPÍTULO 10. EXERCÍCIOS
10.7
Estimação por Intervalo de Confiança
7.1 Para avaliar o peso médio das maçãs produzidas por um determinado agricultor analisaram-se 20
maçãs seleccionadas ao acaso da produção. Estas resultaram num peso médio de x̄ = 320g. Assuma
que os pesos das maçãs têm distribuição Normal com desvio padrão σ = 20g.
(a) Construa um intervalo de confiança a 90% para a média do peso.
(b) Qual deve ser o tamanho da amostra de forma a que a amplitude do correspondente intervalo
de confiança a 90% para a média seja de 1g? E 5g? Comente.
7.2 A quantidade de combustível dispendido num percurso de Lisboa a Faro (em litros) é uma variável
aleatória normal.
(a) Assuma que em 8 viagens Lisboa-Faro seleccionadas ao acaso se verificou um gasto médio de
combustível de 36 litros e um desvio padrão de 10 litros. Construa intervalos de confiança
para a média a 90% e a 95% e compare-os.
(b) Assuma agora que foi em 50 viagens Lisboa-Faro, seleccionadas ao acaso, que se verificou um
gasto médio de combustível de 36 litros e um desvio padrão de 10 litros. Construa intervalos
de confiança para a média a 90% e a 95% e compare com os anteriores. Comente.
7.3 O nível de poluição do ar de determinada cidade (medido em concentração de monóxido de carbono
no ar) distribui-se normalmente. Recolheram-se os seguintes valores da referida concentração em
10 dias diferentes (em ppm): 0.09, 0.33, 0.01, 0.25, 0.20, 0.05, 0.03, 0.18, 0.13, 0.24. Com base
nesta amostra determine um intervalo de confiança a 99% para a concentração média de monóxido
de carbono na atmosfera.
7.4 A quantidade de gordura em 100g de carne de determinado tipo de vacas, medido em gramas, tem
desvio padrão 8g. Qual deve ser o tamanho de uma amostra aleatória a seleccionar de forma a que a
amplitude de um intervalo de confiança a 95% para a gordura média por 100g de carne seja inferior
a 2.5g? Refira eventuais pressupostos que teve de fazer.
7.5 Construa um intervalo de confiança a 95% para a temperatura média de uma determinada sala de
espera, com base numa amostra de temperaturas recolhidas em 35 dias diferentes que resultaram
nos valores x̄ = 22.1o C e s = 3.2o C.
7.6 A tensão (MegaPascal) suportada por uma determinada barra de aço é uma variável aleatória com
desvio padrão igual a 30 P
MPa. Com base numa amostra aleatória de n tensões observadas, para
as quais se verificou que
xi = 10000MPa, construiu-se um intervalo de confiança a 95% para a
tensão média suportada, cujo extremo superior era de 208.3MPa. Determine o extremo inferior do
referido intervalo e diga quanto vale o n, assumindo que n > 30.
7.7 (Exame de P.E. D - 2008/09) A população das estaturas dos alunos da FCT, em metros, segue
uma distribuição Normal. Recolheu-se a seguinte amostra aleatória de estaturas de 40 alunos desta
faculdade:
1.79
1.75
1.78
1.76
1.80
1.74
1.78
1.70
1.72
1.60
1.69
1.63
1.82
1.77
1.78
1.71
1.57
1.82
1.52
1.70
1.78
1.82
1.72
1.64
1.78
1.75
1.84
1.59
1.66
1.66
1.65
1.63
1.78
1.84
1.71
1.74
1.80
1.77
1.79
1.71
correspondendo a uma média amostral de 1.73 e a um desvio padrão amostral de 0.08.
(a) Indique uma estimativa pontual, com base nesta amostra, para a verdadeira estatura média
populacional.
(b) Deduza e calcule um intervalo de confiança a 92% para a estatura média populacional.
7.8 O tempo médio (segundos) de reacção de uma determinada raça de cães a um certo estímulo tem
interesse para um determinado
Ptreinador.2 Assim ele2 resolveu testar 32 cães escolhidos aleatoriamente
tendo observado x̄ = 1.2s e
(xi − x̄) = 15.5s .
105
10.7. ESTIMAÇÃO POR INTERVALO DE CONFIANÇA
(a) Construa um intervalo de confiança a 95% para o tempo médio de reacção dos cães.
(b) Suponha
que só se conseguiu obter uma amostra de 15 cães, tendo resultado em x̄ = 1.1s
P
e
(xi − x̄)2 = 15.9s2 . Construa, para este caso, um intervalo de confiança a 95% para o
tempo médio de reacção dos cães, referindo eventuais pressupostos que tenha tido de fazer.
7.9 Numa fábrica de embalagem de queijo em fatias seleccionaram-se aleatoriamente 100 embalagens,
das quais se verificaram que 18 tinham peso inferior ao suposto - sendo por isso inadequadas.
Construa um intervalo de confiança a 98%para a verdadeira proporção de pacotes inadequados na
produção total.
7.10 De 200 casos de pessoas com cancro do cólon, aleatoriamente detectadas, 12 morreram após 5 anos
da detecção.
(a) Estime pontualmente a probabilidade de uma pessoa que contraia o cancro do cólon morrer
após 5 anos da sua detecção.
(b) Quanto deveria aumentar ao tamanho da sua amostra aleatória de forma a que a largura do
intervalo de confiança a 90% para a probabilidade considerada na alínea anterior fosse inferior
a 0.01?
7.11 O tempo (horas) que o Pedro dispende em filas de trânsito, por dia, é uma v.a. Normal. Seleccionando aleatoriamente 15 dias registaram-se os seguintes valores de espera:
1.5 1.0 1.0 2.0 1.5 1.25 1.0 2.0 1.5 1.25 1.75 0.5 1.0 1.5 1.25
Determine um intervalo de confiança a 99% para a variância do tempo de espera.
7.12 Um profissional de bowling jogou 8 partidas num torneio, tendo obtido as seguintes pontuações:
117.0
220.2
199.5
237.2
249.5
179.8
259.2
248.5
Admitindo a normalidade das pontuações, construa um intervalo de confiança a 95% para a variância
e para o desvio padrão (este último fornece uma medida da consistência da prestação do jogador).
106
10.8
CAPÍTULO 10. EXERCÍCIOS
Teste de Hipóteses
8.1 Uma fábrica de gelados afirma que a procura do gelado de chocolate no verão, por dia e em euros,
é uma v.a. Normalmente distribuída com valor médio e200 e desvio padrão e40. Numa amostra
aleatória constituída por 10 dias seleccionados ao acaso do período de verão verificou-se que x̄ = 216.
(a) Teste, ao nível de significância 5%, se de facto o consumo médio de gelado de chocolate no
verão é de e200 por dia.
(b) Teste, ao ao nível de significância 5%, se de facto o consumo médio de gelado de chocolate
no verão é menor do que e200 por dia.
(c) Qual a potência do teste, da alínea anterior, se µ = 190.
(d) Resolva as duas primeiras alíneas usando o valor-p.
8.2 Um produtor de azeite afirma que a acidez média do seu azeite é de 0.9o . De forma a confirmar tal
facto recolheu-se uma amostra aleatória da sua produção de azeite, tendo-se medido os seguintes
valores de acidez: 0.9 0.8 0.7 1.1 0.9 0.9 1.0 0.7 1.5 1.1. Admitindo a Normalidade
da acidez do azeite:
(a) Teste, ao nível de significância 1%, se o produtor tem razão.
(b) Teste, ao ao nível de significância 1%, se a acidez média é superior a 0.9o .
8.3 Um biólogo pretende demonstrar que o peso médio de uma determinada espécie de coelhos - coelhos
anões - é superior a 250g. Para tal seleccionou aleatoriamente 40 coelhos, tendo obtido uma média
dos pesos de 255.3g e um desvio padrão de 30g. Teste ao nível de significância 10% se o biólogo
está certo, assumindo a Normalidade dos pesos dos coelhos.
8.4 A Inês recebe, para além do seu salário, vencimento correspondente a 2 horas extra que devia fazer
todos os dias. Contudo ela está desconfiada que tem andado a trabalhar, em média, mais do que 2
horas extra. Como a empresa onde trabalha regista sempre a hora de entrada e de saída dos seus
funcionários, ela seleccionou aleatoriamente 12 dias de trabalho passados e registou os seguintes
valores relativos ao horário extra: x̄ = 2.3h e s = 0.5h. Admitindo a Normalidade do tempo extra
de trabalho, teste a um nível de significância de 5%, se as suas suspeitas se confirmam.
8.5 Uma companhia de seguros tem previsto no seu orçamento um total de 5000e/dia para pagar
as indemnizações dos seus segurados. De forma a confirmar se o valor médio das indemnizações
pagas por diaP
está bem previsto seleccionaram-se, de anos anteriores, 100 dias, tendo-se verificado
x̄ = 5625e e (xi − x̄)2 = 6187500e2 . Teste, ao nível de significância 5%, se a previsão se adequa.
8.6 Numa fábrica de massas embalam-se pacotes de esparguete que deveriam ter peso médio de 500g.
O peso dos pacotes é uma v.a. Normal com variância σ 2 = 225g 2 . De forma a confirmar o peso
médio destes pacotes, seleccionaram-se ao acaso 40 embalagens que tinham um peso médio de
495g. Teste, ao nível de significância 1%, se o peso médio das embalagens é menor do que as 500g
indicadas.
8.7 Seja X uma v.a. com distribuição Normal de valor médio µ e desvio padrão σ. A partir de uma
amostra de dimensão 30, retirada da população, obtiveram-se os seguintes resultados:
30
X
i=1
xi = 64.0
30
X
(xi − x̄)2 = 84.4
i=1
(a) Teste, ao nível de significância 1%, as hipóteses H0 : µ = 2 vs H1 : µ > 2.
(b) Suponha que está a testar a hipótese H0 : µ = 2 contra a hipótese H1 : µ = 2.5 e que rejeita
a hipótese nula se X̄30 > 2.3. Calcule as probabilidades dos erros de 1a e 2a espécie do teste,
se σ = 1.
8.8 Numa operação stop da brigada de trânsito, de 120 camiões TIR que foram parados, 42 iam com
excesso de peso. Com base nesta amostra aleatória, teste a hipótese de que a proporção deste tipo
de camiões, que circulam nas nossas estradas em situação ilegal, ultrapassa os 30%. Use um nível
de significância de 10%.
107
10.8. TESTE DE HIPÓTESES
8.9 (Exame de P.E. D - 2008/09) A população das estaturas dos alunos da FCT, em metros, segue
uma distribuição Normal. Recolheu-se a seguinte amostra aleatória de estaturas de 40 alunos desta
faculdade:
1.79
1.75
1.78
1.76
1.80
1.74
1.78
1.70
1.72
1.60
1.69
1.63
1.82
1.77
1.78
1.71
1.57
1.82
1.52
1.70
1.78
1.82
1.72
1.64
1.78
1.75
1.84
1.59
1.66
1.66
1.65
1.63
1.78
1.84
1.71
1.74
1.80
1.77
1.79
1.71
correspondendo a uma média amostral de 1.73 e a um desvio padrão amostral de 0.08. Teste a
hipótese de que a verdadeira proporção de alunos com estatura superior ou igual a 1.82m nesta
população é maior que 0.2. Use um nível de significância de 5%.
8.10 Determinada desordem genética no sangue pode ser prevista com base num teste de sangue muito
simples. De forma a ter uma noção da proporção de pessoas que na população possam vir a ter
esta desordem, testaram-se 100 pessoas, seleccionadas ao acaso, para as quais 14 testes deram
positivo. Efectue um teste de hipóteses, usando um nível de significância 5%, sobre se percentagem
de pessoas com tal desordem é inferior a 10%.
8.11 No fabrico de parafusos admite-se, relativamente aos seus comprimentos, uma variabilidade máxima
de 0.5mm2 . Recolheu-se uma amostra aleatória de 20 parafusos que se verificou terem s2 = 0.3.
Admitindo a Normalidade do comprimento dos parafusos, teste, ao nível de significância de 5% se
a especificação sobre a variabilidade do comprimento dos parafusos está a ser respeitada.
8.12 Com base na amostra aleatória seguinte, teste H0 : σ = 1.3 vs H1 : σ 6= 1.3, a um nível de
significância de 1%: 2.0 3.2 5.0 1.8 3.4 2.6
8.13 A resistência de um determinado metal é dito ter uma variabilidade inferior a 0.01 ohm2 . Teste
esta hipótese, a um nível de significância 10%, usando a seguinte amostra aleatória de resistências
medidas para este metal:
0.14, 0.138, 0.143, 0.142, 0.144, 0.137
8.14 Considere novamente a amostra do exercício 8.9. Podemos considerar a amostra aleatória?
8.15 Considere a seguinte tabela de frequências de uma v.a. X:
Valores
Frequência
0
4
1
21
2
10
3
13
4
2
(a) É a distribuição Binomial com n = 5 e p = 0.25 um modelo apropriado? Teste esta hipótese
ao nível de significância de 5%.
(b) Determine um valor aproximado para o valor-p.
8.16 O gerente de uma loja pretende saber se os tempos entre chegadas de clientes à sua loja se comporta probabilisticamente segundo uma distribuição exponencial. Para tal, registou os tempos entre
chegadas consecutivas de clientes numa manhã. Esses tempos (em minutos) foram:
3.6
10.1
21.2
3.8
6.2
22.1
18.8
7.4
12.7
4.2
7.9
1.6
14.2
4.6
16.8
3.0
38.0
1.4
0.1
5.4
3.8
3.3
3.0
14.0
10.8
8.2
3.1
13.9
6.1
3.5
10.5
9.4
8.3
0.7
4.1
(a) Podemos considerar a amostra aleatória?
(b) Teste a conjectura do gerente ao nível de significância 0.1. Nota: Numa distribuição exponencial, o estimador de máxima verosimilhança de λ é dado por λ̂ = X1 .
108
CAPÍTULO 10. EXERCÍCIOS
8.17 Teste a um nível de significância 5% que a seguinte amostra aleatória provêm de uma distribuição
Normal(3, 22 ):
1.14, 3.11, 3.55, 2.81, 6.28, 1.61, 4.36, 0.90, 0.81, −0.18, 2.08, 2.68, 2.12, −0.33, 2.57,
3.55, 1.81, 2.56, 5.56, 2.46, 4.20, 1.63, 4.21, 4.85, 4.24, 3.98, 1.40, 3.00, 2.01, 3.31
8.18 Pensa-se que a altura a que os eucaliptos chegam aos 20 anos é uma v.a. Normal de média 2m. Para
o confirmar seleccionou-se uma amostra aleatória de 30 eucaliptos, tendo observado as seguintes
alturas:
0.2, 0.8, 3.6, 1.0, 0.2, 4.3, 3.1, 0.4, 3.3, 3.1, 3.2, 5.3, 1.7, 0.2, 2.8, 0.4, 0.5, 3.0, 1.2, 4.2, 4.8,
3.4, 2.1, 2.5, 2.4, 2.1, 0.8, 3.5, 1.7, 1.3
Teste, ao nível de significância 1%, a conjectura referida.
8.19 (Teste de P.E. D - 2008/09) Teste a um nível de significância 5% que a seguinte amostra aleatória
provém de uma população com função de distribuição F , definida por:

0,
x<0

2
2x
−
x
,
0
≤
x<1
F (x) =

1,
x≥1
0.10, 0.33, 0.90, 0.43, 0.22, 0.42, 0.46, 0.68, 0.12, 0.51, 0.18, 0.03, 0.48, 0.24, 0.47
0.11, 0.52, 0.47, 0.32, 0.40, 0.01, 0.34, 0.32, 0.57, 0.51, 0.12, 0.06, 0.40, 0.07, 0.40
Para a realização do teste considere as classes ]0; 0.25], ]0.25; 0.5], ]0.5; 0.75] e ]0.75; 1[.
109
10.9. REGRESSÃO LINEAR
10.9
Regressão Linear
9.1 Determinada empresa está interessada em contabilizar o tempo que o ar condicionado está ligado
no verão, por dia, mediante a temperatura exterior (o C). Assim, seleccionaram-se 14 dias ao acaso,
para os quais se mediram as temperaturas (x) e se registarem o número de horas de utilização do
ar condicionado (Y ):
i
xi
Yi
1
29
10.5
2
28
9.0
3
29
10.4
4
35
18.6
5
26
5.5
6
25
5.2
7
32
11.6
8
31
10.4
9
34
17.8
10
27
9.9
11
33
13.7
12
33
14.2
13
32
12.3
14
28
8.7
(a) Disponha os dados em gráfico.
(b) Estime a recta de regressão linear simples. Refira quais os pressupostos efectuados. Desenhe-a
no gráfico anterior.
(c) Comente a qualidade da estimação efectuada, com base no coeficiente de determinação.
(d) Teste a hipótese de o verdadeiro declive da recta de regressão ser nulo. Comente o resultado
à luz da alínea anterior.
(e) Para uma temperatura exterior de 30o C qual o número de horas que estima que o ar condicionado esteja a trabalhar? E para uma temperatura de 40o C?
9.2 Pretende-se modelar a velocidade do vento Y , medida em Km/h, com a altitude x a que se faz
a medição (m). Para tal registaram-se, para 9 valores de altitude, os correspondentes valores da
velocidade do vento:
i
xi
Yi
X
1
100
4
2
250
9
3
500
15
Yi2 = 14675 Ȳ = 32.78
X
4
750
16
5
1000
20
6
1250
46
7
1500
54
x2i = 12760000 x̄ = 1011.11
8
1750
59
X
9
2000
72
Yi xi = 427900
(a) Ajuste um modelo de regressão linear simples aos dados. O que pode dizer sobre a qualidade
do ajuste?
(b) Determine um intervalo de confiança a 95% para o verdadeiro declive da recta de regressão.
(c) Use o resultado da alínea anterior para testar a hipótese de que o verdadeiro declive da recta
de regressão é nulo.
9.3 (Exame de P.E. D - 2005/06) Pretende-se averiguar se existe uma relação directa entre a proximidade
com campos de futebol da residência de casais e a taxa de divórcio. Assim registaram-se, em 5 locais
seleccionados ao acaso, o correspondente número de estádios de futebol num raio de 50Km (x) e a
respectiva taxa de divórcio por 1000 habitantes registada nessas localidades (Y ):
No de campos de futebol, xi
Taxa de divórcio (por 1000 habitantes), Yi
5
X
i=1
xi = 14;
5
X
i=1
x2i = 66;
5
X
i=1
Yi = 17.1;
5
X
i=1
0
2.2
Yi2 = 63.19;
1
2.5
5
X
2
3.5
5
4.1
6
4.8
Yi xi = 58.8; SQR = 0.2585075.
i=1
(a) Ajuste uma recta de regressão linear a estes dados. Que pode dizer da qualidade do ajuste?
(b) Diga por suas palavras como interpreta o valor de β̂1 obtido.
(c) Teste a hipótese do verdadeiro valor declive da recta de regressão, β1 , ser nulo, a um nível de
significância 10%. O resultado está de acordo com a qualidade do ajuste discutida em (a)?
(d) Numa localidade com 3 estádios de futebol na sua proximidade (menos de 50Km) quanto
prevê que valha a correspondente taxa de divórcio?
110
CAPÍTULO 10. EXERCÍCIOS
9.4 (Exame de P.E. - 2006/07) Com o objectivo de estudar a qualidade do ar na região de Lisboa,
pretende-se modelar a quantidade Y de Ozono troposférico (O3 ), com a quantidade x de partículas
em suspensão com diâmetro aerodinâmico inferior a 10 µm (P M10 ). Para tal, registaram-se os
seguintes dados:
xi
yi
X
60.5
124.2
78.8
158
xi = 724.8;
89.8
177.1
X
80.9
185.6
74.8
179.2
x2i = 53414.92;
49.9
145.7
97.5
163.7
SY Y = 18620.05;
92.5
188.8
X
36.5
122.2
18.1
75.4
xi yi = 114890.35;
29.6
94.8
15.9
80.3
σ̂ 2 = 237.44;
(a) Ajuste um modelo de regressão linear simples aos dados. Refira quais os pressupostos do
modelo.
(b) Comente a qualidade do modelo.
(c) Teste, ao nível de significância de 5%, a hipótese de o declive da recta de regressão ser nulo.
(d) Prove que qualquer recta dos mínimos quadrados passa por (x, y).
Capítulo 11
Tabelas
Função de distribuição Normal reduzida
Φ(z) = P (Z ≤ z) =
z
.0
.1
.2
.3
.4
.5
.6
.7
.8
.9
1.0
1.1
1.2
1.3
1.4
1.5
1.6
1.7
1.8
1.9
2.0
2.1
2.2
2.3
2.4
2.5
2.6
2.7
2.8
2.9
3
0
.5000
.5398
.5793
.6179
.6554
.6915
.7257
.7580
.7881
.8159
.8413
.8643
.8849
.9032
.9192
.9332
.9452
.9554
.9641
.9713
.9772
.9821
.9861
.9893
.9918
.9938
.9953
.9965
.9974
.9981
.9987
1
.5040
.5438
.5832
.6217
.6591
.6950
.7291
.7611
.7910
.8186
.8438
.8665
.8869
.9049
.9207
.9345
.9463
.9564
.9649
.9719
.9778
.9826
.9864
.9896
.9920
.9940
.9955
.9966
.9975
.9982
.9990
Z z
√1
−∞ 2π
2
.5080
.5478
.5871
.6255
.6628
.6985
.7324
.7642
.7939
.8212
.8461
.8686
.8888
.9066
.9222
.9357
.9474
.9573
.9656
.9726
.9783
.9830
.9868
.9898
.9922
.9941
.9956
.9967
.9976
.9982
.9993
exp − 12 t2 dt
3
.5120
.5517
.5910
.6293
.6664
.7019
.7357
.7673
.7967
.8238
.8485
.8708
.8907
.9082
.9236
.9370
.9484
.9582
.9664
.9732
.9788
.9834
.9871
.9901
.9925
.9943
.9957
.9968
.9977
.9983
.9995
4
.5160
.5557
.5948
.6331
.6700
.7054
.7389
.7704
.7995
.8264
.8508
.8729
.8925
.9099
.9251
.9382
.9495
.9591
.9671
.9738
.9793
.9838
.9875
.9904
.9927
.9945
.9959
.9969
.9977
.9984
.9997
Nota: Para z ≥ 4, Φ(z) ≈ 1.
111
5
.5199
.5596
.5987
.6368
.6736
.7088
.7422
.7734
.8023
.8289
.8531
.8749
.8944
.9115
.9265
.9394
.9505
.9599
.9678
.9744
.9798
.9842
.9878
.9906
.9929
.9946
.9960
.9970
.9978
.9984
.9998
6
.5239
.5636
.6026
.6406
.6772
.7123
.7454
.7764
.8051
.8315
.8554
.8770
.8962
.9131
.9279
.9406
.9515
.9608
.9686
.9750
.9803
.9846
.9881
.9909
.9931
.9948
.9961
.9971
.9979
.9985
.9998
7
.5279
.5675
.6064
.6443
.6808
.7157
.7486
.7794
.8078
.8340
.8577
.8790
.8980
.9147
.9292
.9418
.9525
.9616
.9693
.9756
.9808
.9850
.9884
.9911
.9932
.9949
.9962
.9972
.9979
.9985
.9999
8
9
.5319 .5359
.5714 .5753
.6103 .6141
.6480 .6517
.6844 .6879
.7190 .7224
.7517 .7549
.7823 .7852
.8106 .8133
.8365 .8389
.8599 .8621
.8810 .8830
.8997 .9015
.9162 .9177
.9306 .9319
.9429 .9441
.9535 .9545
.9625 .9633
.9699 .9706
.9761 .9767
.9812 .9817
.9854 .9857
.9887 .9890
.9913 .9916
.9934 .9936
.9951 .9952
.9963 .9964
.9973 .9974
.9980 .9981
.9986 .9986
.9999 1.0000
CAPÍTULO 11. TABELAS
112
g.l.
.158
.142
.137
.134
.132
.131
.130
.130
.129
.129
.129
.128
.128
.128
.128
.128
.128
.127
.127
.127
.127
.127
.127
.127
.127
.127
.127
.127
.127
.127
.126
.55
.325
.289
.277
.271
.267
.265
.263
.262
.261
.260
.260
.259
.259
.258
.258
.258
.257
.257
.257
.257
.257
.256
.256
.256
.256
.256
.256
.256
.256
.256
.253
.6
.510
.445
.424
.414
.408
.404
.402
.399
.398
.397
.396
.395
.394
.393
.393
.392
.392
.392
.391
.391
.391
.390
.390
.390
.390
.390
.389
.389
.389
.389
.385
.65
.727
.617
.584
.569
.559
.553
.549
.546
.543
.542
.540
.539
.538
.537
.536
.535
.534
.534
.533
.533
.532
.532
.532
.531
.531
.531
.531
.530
.530
.530
.524
.7
1.00
.816
.765
.741
.727
.718
.711
.706
.703
.700
.697
.695
.694
.692
.691
.690
.689
.688
.688
.687
.686
.686
.685
.685
.684
.684
.684
.683
.683
.683
.674
.75
1.38
1.06
.978
.941
.920
.906
.896
.889
.883
.879
.876
.873
.870
.868
.866
.865
.863
.862
.861
.860
.859
.858
.858
.857
.856
.856
.855
.855
.854
.854
.842
.8
1.96
1.39
1.25
1.19
1.16
1.13
1.12
1.11
1.10
1.09
1.09
1.08
1.08
1.08
1.07
1.07
1.07
1.07
1.07
1.06
1.06
1.06
1.06
1.06
1.06
1.06
1.06
1.06
1.06
1.05
1.04
α
.85
3.08
1.89
1.64
1.53
1.48
1.44
1.41
1.40
1.38
1.37
1.36
1.36
1.35
1.35
1.34
1.34
1.33
1.33
1.33
1.33
1.32
1.32
1.32
1.32
1.32
1.31
1.31
1.31
1.31
1.31
1.28
.9
6.31
2.92
2.35
2.13
2.02
1.94
1.89
1.86
1.83
1.81
1.80
1.78
1.77
1.76
1.75
1.75
1.74
1.73
1.73
1.72
1.72
1.72
1.71
1.71
1.71
1.71
1.70
1.70
1.70
1.70
1.64
12.7
4.30
3.18
2.78
2.57
2.45
2.36
2.31
2.26
2.23
2.20
2.18
2.16
2.14
2.13
2.12
2.11
2.10
2.09
2.09
2.08
2.07
2.07
2.06
2.06
2.06
2.05
2.05
2.05
2.04
1.96
.95 .975
31.8
6.96
4.54
3.75
3.36
3.14
3.00
2.90
2.82
2.76
2.72
2.68
2.65
2.62
2.60
2.58
2.57
2.55
2.54
2.53
2.52
2.51
2.50
2.49
2.49
2.48
2.47
2.47
2.46
2.46
2.33
63.7
9.92
5.84
4.60
4.03
3.71
3.50
3.36
3.25
3.17
3.11
3.05
3.01
2.98
2.95
2.92
2.90
2.88
2.86
2.85
2.83
2.82
2.81
2.80
2.79
2.78
2.77
2.76
2.76
2.75
2.58
637
31.6
12.9
8.61
6.87
5.96
5.41
5.04
4.78
4.59
4.44
4.32
4.22
4.14
4.07
4.01
3.97
3.92
3.88
3.85
3.82
3.79
3.77
3.75
3.73
3.71
3.69
3.67
3.66
3.65
3.29
.99 .995 .9995
Quantis da distribuição t de Student
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
∞
g.l.
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
40
50
60
.005
.000
.010
.072
.207
.412
.676
.989
1.34
1.73
2.16
2.60
3.07
3.57
4.07
4.60
5.14
5.70
6.26
6.84
7.43
8.03
8.64
9.26
9.89
10.5
11.2
11.8
12.5
13.1
13.8
20.7
28.0
35.5
.025
.001
.051
.216
.484
.831
1.24
1.69
2.18
2.70
3.25
3.82
4.40
5.01
5.63
6.26
6.91
7.56
8.23
8.91
9.59
10.3
11.0
11.7
12.4
13.1
13.8
14.6
15.3
16.0
16.8
24.4
32.4
40.5
.05
.004
.103
.352
.711
1.15
1.64
2.17
2.73
3.33
3.94
4.57
5.23
5.89
6.57
7.26
7.96
8.67
9.39
10.1
10.9
11.6
12.3
13.1
13.8
14.6
15.4
16.2
16.9
17.7
18.5
26.5
34.8
43.2
.1
.016
.211
.584
1.06
1.61
2.20
2.83
3.49
4.17
4.87
5.58
6.30
7.04
7.79
8.55
9.31
10.1
10.9
11.7
12.4
13.2
14.0
14.8
15.7
16.5
17.3
18.1
18.9
19.8
20.6
29.1
37.7
46.5
.2
.064
.446
1.01
1.65
2.34
3.07
3.82
4.59
5.38
6.18
6.99
7.81
8.63
9.47
10.3
11.2
12.0
12.9
13.7
14.6
15.4
16.3
17.2
18.1
18.9
19.8
20.7
21.6
22.5
23.4
32.3
41.4
50.6
.3
.148
.713
1.42
2.19
3.00
3.83
4.67
5.53
6.39
7.27
8.15
9.03
9.93
10.8
11.7
12.6
13.5
14.4
15.4
16.3
17.2
18.1
19.0
19.9
20.9
21.8
22.7
23.6
24.6
25.5
34.9
44.3
53.8
α
.5
.455
1.39
2.37
3.36
4.35
5.35
6.35
7.34
8.34
9.34
10.3
11.3
12.3
13.3
14.3
15.3
16.3
17.3
18.3
19.3
20.3
21.3
22.3
23.3
24.3
25.3
26.3
27.3
28.3
29.3
39.3
49.3
59.3
.7
1.07
2.41
3.66
4.88
6.06
7.23
8.38
9.52
10.7
11.8
12.9
14.0
15.1
16.2
17.3
18.4
19.5
20.6
21.7
22.8
23.9
24.9
26.0
27.1
28.2
29.2
30.3
31.4
32.5
33.5
44.2
54.7
65.2
.8
1.64
3.22
4.64
5.99
7.29
8.56
9.80
11.0
12.2
13.4
14.6
15.8
17.0
18.2
19.3
20.5
21.6
22.8
23.9
25.0
26.2
27.3
28.4
29.6
30.7
31.8
32.9
34.0
35.1
36.3
47.3
58.2
69.0
.9
2.71
4.61
6.25
7.78
9.24
10.6
12.0
13.4
14.7
16.0
17.3
18.5
19.8
21.1
22.3
23.5
24.8
26.0
27.2
28.4
29.6
30.8
32.0
33.2
34.4
35.6
36.7
37.9
39.1
40.3
51.8
63.2
74.4
.95
3.84
5.99
7.81
9.49
11.1
12.6
14.1
15.5
16.9
18.3
19.7
21.0
22.4
23.7
25.0
26.3
27.6
28.9
30.1
31.4
32.7
33.9
35.2
36.4
37.7
38.9
40.1
41.3
42.6
43.8
55.8
67.5
79.1
.975
5.02
7.38
9.35
11.1
12.8
14.4
16.0
17.5
19.0
20.5
21.9
23.3
24.7
26.1
27.5
28.8
30.2
31.5
32.9
34.2
35.5
36.8
38.1
39.4
40.6
41.9
43.2
44.5
45.7
47.0
59.3
71.4
83.3
Quantis da distribuição Qui Quadrado
.01
.000
.020
.115
.297
.554
.872
1.24
1.65
2.09
2.56
3.05
3.57
4.11
4.66
5.23
5.81
6.41
7.01
7.63
8.26
8.90
9.54
10.2
10.9
11.5
12.2
12.9
13.6
14.3
15.0
22.2
29.7
37.5
.99
6.63
9.21
11.3
13.3
15.1
16.8
18.5
20.1
21.7
23.2
24.7
26.2
27.7
29.1
30.6
32.0
33.4
34.8
36.2
37.6
38.9
40.3
41.6
43.0
44.3
45.6
47.0
48.3
49.6
50.9
63.7
76.2
88.4
.995
7.88
10.6
12.8
14.9
16.7
18.5
20.3
22.0
23.6
25.2
26.8
28.3
29.8
31.3
32.8
34.3
35.7
37.2
38.6
40.0
41.4
42.8
44.2
45.6
46.9
48.3
49.6
51.0
52.3
53.7
66.8
79.5
92.0
Bibliografia sugerida
• Guimarães e Cabral(1997). Estatística. McGraw-Hill.
• Montgomery e Runger (2002). Applied Statistics and Probability for Engineers. Wiley.
• Mood, Graybill e Boes (1974). Introduction to the Theory of Statistics. McGraw-Hill.
• Murteira, B., Ribeiro, C., Silva, J. e Pimenta, C. (2007). Introdução à Estatística, 2a
edição. McGraw-Hill
• Paulino e Branco (2005). Exercícios de Probabilidade e Estatística. Escolar Editora.
• Pestana, D. e Velosa, S. (2002). Introdução à Probabilidade e à Estatística. Fundação
Calouste Gulbenkian, Lisboa.
• Rohatgi (1976). An Introduction to Probability Theory and Mathematical Statistics. Wiley.
• Sokal e Rohlf (1995). Biometry. Freeman.
• Tiago de Oliveira (1990). Probabilidades e Estatística: Conceitos, Métodos e Aplicações,
vol. I, II. McGraw-Hill.
113

Documentos relacionados