Probabilidade e Estatística
Transcrição
Probabilidade e Estatística
Probabilidade e Estatística Frederico Caeiro 2009/10 Observação: Estas folhas servem de apoio às aulas de Probabilidades e Estatística. Para uma melhor compreensão dos assuntos abordados, aconselha-se a leitura de alguns dos livros indicados nas referências bibliográficas. Conteúdo 1 Introdução à Teoria da Probabilidade 1.1 Espaço de Resultados e Acontecimentos . 1.2 Probabilidade . . . . . . . . . . . . . . . 1.3 Cálculo Combinatório . . . . . . . . . . . 1.4 Probabilidade Condicional e Independência . . . . 1 1 3 5 6 . . . . . . 9 9 10 11 12 14 15 3 Vectores aleatórios 3.1 Par aleatório discreto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2 Par aleatório contínuo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3 Momentos de vectores aleatórios . . . . . . . . . . . . . . . . . . . . . . . . . . 17 17 19 20 4 Principais Distribuições 4.1 Distribuições discretas . . . . . . . . . . 4.1.1 Distribuição Uniforme . . . . . . 4.1.2 Distribuição de Bernoulli . . . . 4.1.3 Distribuição Binomial . . . . . . 4.1.4 Distribuição Geométrica . . . . . 4.1.5 Distribuição Hipergeométrica . . 4.1.6 Distribuição de Poisson . . . . . 4.2 Distribuições Contínuas . . . . . . . . . 4.2.1 Distribuição Uniforme Contínua . 4.2.2 Distribuição Exponencial . . . . 4.2.3 Distribuição Gama . . . . . . . . 4.2.4 Distribuição Normal . . . . . . . 4.2.5 Distribuição do Qui Quadrado . 4.2.6 Distribuição t de Student . . . . 23 23 23 24 24 26 27 29 31 31 32 34 35 36 37 2 Variáveis aleatórias 2.1 Variáveis aleatórias . . . . . . . . . 2.2 Função de distribuição . . . . . . . . 2.3 Classificação das variáveis aleatórias 2.4 Momentos . . . . . . . . . . . . . . 2.5 Outros parâmetros relevantes . . . . 2.6 Funções de uma variável aleatória . . . . . . . . . . . . . 5 Teorema Limite Central . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 i 6 Estimação Pontual 6.1 Alguns conceitos importantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.2 Propriedades dos estimadores . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.3 Método dos Momentos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.4 Método da máxima verosimilhança . . . . . . . . . . . . . . . . . . . . . . . . . 6.5 Distribuições por Amostragem . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.5.1 Distribuição por amostragem da média amostral, X . . . . . . . . . . . . 6.5.2 Distribuição por amostragem da diferença de médias amostrais, X 1 − X 2 6.5.3 Distribuição por amostragem da variância amostral, S 2 . . . . . . . . . . 6.5.4 Distribuição por amostragem da proporção, P̂ . . . . . . . . . . . . . . . 41 41 42 44 46 47 47 49 49 49 7 Estimação por Intervalo de Confiança 7.1 Intervalo de Confiança para a média da população, µ . . . . . . . . . . . . . . . 7.1.1 População Normal com variância conhecida . . . . . . . . . . . . . . . . 7.1.2 População Normal com variância desconhecida . . . . . . . . . . . . . . 7.1.3 População não-Normal com variância conhecida e n > 30 . . . . . . . . . 7.1.4 População não-Normal com variância desconhecida e n > 30 . . . . . . . 7.2 Intervalo de Confiança para a variância populacional, σ 2 , e para o desvio padrão populacional, σ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.3 Intervalo de Confiança para proporção populacional, p . . . . . . . . . . . . . . . 51 52 52 55 56 56 8 Teste de Hipóteses 8.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . 8.2 Teste de Hipóteses para a média da população . . . . . . . 8.2.1 Teste bilateral . . . . . . . . . . . . . . . . . . . . 8.2.2 Teste unilateral direito . . . . . . . . . . . . . . . 8.2.3 Teste unilateral esquerdo . . . . . . . . . . . . . . 8.3 Teste de Hipóteses para a variância, σ 2 , de uma população 8.4 Teste de Hipóteses para a proporção p de uma população . 8.5 Teste das sequências ascendentes e descendentes . . . . . 8.6 Teste de ajustamento do Qui Quadrado . . . . . . . . . . 63 63 65 66 67 68 69 70 71 72 . . . . . . . . . . . . . . . . . . . . . . . . . Normal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 Regressão Linear 9.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.2 Estimadores dos Mínimos Quadrados de β0 e β1 . . . . . . . . . . . . . . . . . . 9.3 Estimação de σ 2 e Qualidade do Ajuste . . . . . . . . . . . . . . . . . . . . . . 9.4 Propriedades dos estimadores dos mínimos quadrados . . . . . . . . . . . . . . . 9.4.1 Distribuição por amostragem de σ̂ 2 . . . . . . . . . . . . . . . . . . . . . 9.4.2 Distribuição por amostragem de β̂0 e β̂1 . . . . . . . . . . . . . . . . . . 9.5 Inferência sobre os parâmetros do Modelo de Regressão . . . . . . . . . . . . . . 9.5.1 Intervalo de Confiança e Teste de Hipóteses para β1 . . . . . . . . . . . 9.5.2 Intervalo de Confiança e Teste de Hipóteses para β0 . . . . . . . . . . . 9.5.3 Intervalo de Confiança e Teste de Hipóteses para σ 2 . . . . . . . . . . . 9.6 Estimação do valor esperado de Y para uma observação x0 da variável controlada 9.7 Previsão do valor da variável resposta Y para um novo valor x0 da variável controlada 58 60 77 77 78 79 79 79 80 81 81 82 83 84 84 10 Exercícios 10.1 Introdução à Teoria da Probabilidade . 10.2 Variáveis aleatórias . . . . . . . . . . 10.3 Vectores Aleatórios . . . . . . . . . . 10.4 Principais distribuições . . . . . . . . 10.5 Teorema Limite Central . . . . . . . . 10.6 Estimação Pontual . . . . . . . . . . . 10.7 Estimação por Intervalo de Confiança 10.8 Teste de Hipóteses . . . . . . . . . . 10.9 Regressão Linear . . . . . . . . . . . . 11 Tabelas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85 85 89 93 96 101 102 104 106 109 111 Capítulo 1 Introdução à Teoria da Probabilidade 1.1 Espaço de Resultados e Acontecimentos Definição 1.1 (Experiência aleatória). Uma experiência aleatória é uma experiência cujo resultado é desconhecido (antes da sua realização), apesar de se conhecerem todos os possíveis resultados. Exemplo 1.2 (Experiência aleatória). Considere os seguintes exemplos: • E1 : Lançamento de uma moeda e observação da face voltada para cima; • E2 : Lançamento de um dado e observação da face voltada para cima; • E3 : Tempo de “vida” de uma lâmpada. Definição 1.3 (Espaço de resultados ou universo). Chamamos espaço de resultados ou universo, e representamos por Ω, ao conjunto de todos os possíveis resultados de uma experiência aleatória. Observação: Diz-se que o espaço de resultados, Ω, é discreto se tem um número finito ou infinito numerável de elementos. Se Ω contém um intervalo (finito ou infinito) de números reais, então o espaço de resultados é contínuo. Exemplo 1.4 (Espaço de resultados). Considere novamente as experiências aleatórias do Exemplo 1.2. Temos: • E1 : Ω = {Cara, Coroa}; • E2 : Ω = {1, 2, 3, 4, 5, 6}; • E3 : Ω = R+ . 1 2 CAPÍTULO 1. INTRODUÇÃO À TEORIA DA PROBABILIDADE Exemplo 1.5 (Espaço de resultados). Na experiência aleatória que consiste em lançar um dado, numerado de 1 a 6, e observar a face voltada para cima, Ω = {1, 2, 3, 4, 5, 6}. Se forem lançados dois dados, o espaço de resultados é, Ω = {(1, 1), (1, 2), (1, 3), (1, 4), (1, 5), (1, 6), (2, 1), . . . , (6, 5), (6, 6)}, ou seja, Ω = {(i, j) : i = 1, . . . , 6; j = 1, . . . , 6}. Definição 1.6 (Acontecimento e Acontecimento elementar). Um acontecimento é um subconjunto do espaço de resultados, Ω. Cada acontecimento formado por apenas um ponto amostral é designado por acontecimento elementar ou simples. Observação: Ao conjunto ∅ chamamos acontecimento impossível e a Ω acontecimento certo. Definição 1.7 (Sub-acontecimento). A é sub-acontecimento de B, e escreve-se A ⊂ B, se e só se a realização de A implica a realização de B. Observação: Podemos aplicar as operações usuais sobre conjuntos de modo a obter outros acontecimentos de interesse. As operações mais usuais são: • A união de dois acontecimentos A e B, e representa-se por A ∪ B; • A intersecção de dois acontecimentos A e B, e representa-se por A ∩ B; • O complementar do acontecimento A e representa-se por A; • A diferença dos acontecimentos A e B e representa-se por A − B (= A ∩ B); Algumas propriedades importantes: 1. Distributiva: A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C) e A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C); 2. Leis de De Morgan: A ∩ B = A ∪ B e A ∪ B = A ∩ B. Definição 1.8 (Acontecimentos disjuntos ou mutuamente exclusivos). Dois acontecimentos A e B dizem-se disjuntos se não têm elementos em comum, ou seja, se A ∩ B = ∅. 3 1.2. PROBABILIDADE 1.2 Probabilidade Em muitas experiência aleatórias estamos interessados em medir a possibilidade de ocorrer um determinado acontecimento ocorrer. A probabilidade permite-nos quantificar essa possibilidade. Definição 1.9 (Definição Clássica ou de Laplace de Probabilidade). Se uma experiência aleatória tem a si associado um número finito N de resultados, mutuamente exclusivos e igualmente prováveis, então a probabilidade de qualquer acontecimento A, P (A), é dada por: P (A) = no de resultados favoráveis a A NA = . N no de resultados possíveis Exemplo 1.10. A probabilidade de sair face ímpar, num lançamento de um dado equilibrado é P (“Sair face ímpar”) = 3 6 = 21 . Definição 1.11 (Definição Frequencista de Probabilidade). A probabilidade de um acontecimento A é dada pelo limite da frequência relativa com que se observou A, isto é, nA , n→∞ n P (A) = lim onde nA representa o número de observações de A, e n o número de realizações da experiência nA . aleatória. Para valores elevados de n, podemos assumir que P (A) ≈ n Definição 1.12 (Definição Axiomática de Probabilidade). A Probabilidade é uma função, que a cada acontecimento A faz corresponder um valor real, P (A), e que verifica as seguintes condições ou axiomas: 1. P (A) ≥ 0, qualquer que seja o acontecimento A; 2. P (Ω) = 1; 3. Se A e B são acontecimentos disjuntos, P (A ∪ B) = P (A) + P (B). Esta axiomática não contempla situações com uma infinidade numerável de acontecimentos. É assim usual substituir o 3o axioma, por: 3. Se A1 , A2 , . . . são acontecimentos disjuntos dois a dois, então P S∞ i=1 Ai = P∞ i=1 P (Ai ). Proposição 1.13. Sejam A e B dois acontecimentos. Os seguintes resultados são consequência imediata dos axiomas da definição 1.12: 1. P (∅) = 0; 2. Se A ⊆ B então P (A) ≤ P (B); 4 CAPÍTULO 1. INTRODUÇÃO À TEORIA DA PROBABILIDADE 3. P (Ā) = 1 − P (A); 4. P (A) ∈ [0, 1]; 5. P (A − B) = P (A ∩ B) = P (A) − P (A ∩ B); 6. P (A ∪ B) = P (A) + P (B) − P (A ∩ B). Demonstração. 1. Como ∅ e Ω são acontecimentos disjuntos e P (∅ ∪ Ω) = P (Ω) = 1, resulta pelo 3o axioma que P (∅ ∪ Ω) = P (∅) + P (Ω), ou seja, P (∅) = 0. 2. Sejam A e B dois acontecimentos tais que A ⊆ B. Então B = B ∩ (A ∪ A) = (B ∩ A) ∪ (B ∩ A) = A ∪ (B ∩ A). Como A e B ∩ A são acontecimentos disjuntos, podemos utilizar o 3o axioma, resultando, P (B) = P (A ∪ (B ∩ A)) = P (A) + P (B ∩ A). Usando o 1o axioma, podemos garantir que P (B∩A) ≥ 0 e consequentemente P (B) ≥ P (A). 3. Como A e A são acontecimentos disjuntos, podemos utilizar o 3o axioma. Assim, 1 = P (Ω) = P (A ∪ A) = P (A) + P (A), ou seja, P (Ā) = 1 − P (A). 4. Pelo 1o axioma, para qualquer acontecimento A, P (A) ≥ 0. Logo, basta apenas demonstrar que P (A) ≤ 1. Como A ⊆ Ω, resulta que P (A) ≤ P (Ω) = 1. 5. Como A = (A∩B)∪(A∩B) = (A−B)∪(A∩B), e (A−B) e (A∩B) são acontecimentos disjuntos, então podemos utilizar o 3o axioma. Assim, P (A) = P (A − B) + P (A ∩ B) ⇔ P (A − B) = P (A) − P (A ∩ B). 6. Como A ∪ B = (A − B) ∪ (B − A) ∪ (A ∩ B) e (A − B), (B − A) e (A ∩ B) são acontecimentos disjuntos dois a dois, podemos utilizar o resultado do 3o axioma, obtendo: P (A ∪ B) = P (A − B) + P (B − A) + P (A ∩ B) = = P (A) − P (A ∩ B) + P (B) − P (A ∩ B) + P (A ∩ B) = = P (A) + P (B) − P (A ∩ B). Observação: O último resultado da Proposição 1.13 pode ser generalizado para a união de n acontecimentos (n ≥ 2). Assim, dados os acontecimentos Ai , i = 1, . . . , n, P (∪ni=1 Ai ) = n X i=1 P (Ai )− X i6=j P (Ai ∩ Aj )+ X i6=j6=k P (Ai ∩ Aj ∩ Ak )−. . .+(−1)n−1 P (∩ni=1 Ai ) ; 5 1.3. CÁLCULO COMBINATÓRIO Para n = 3 obtemos o caso particular: P (A ∪ B ∪ C) = P (A) + P (B) + P (C) − P (A ∩ B) − P (A ∩ C) − P (B ∩ C) + P (A ∩ B ∩ C). Definição 1.14 (Acontecimentos incompatíveis). Dois acontecimentos A e B dizem-se incompatíveis se P (A ∩ B) = 0. 1.3 Cálculo Combinatório O cálculo de uma probabilidade, através da definição clássica, depende da contagem do número de casos favoráveis e do número de casos possíveis. Em muitas situações este cálculo pode não ser imediato. O cálculo combinatório é uma ferramenta que nos poderá auxiliar em muitas dessas situações. Definição 1.15 (Produto Cartesiano). Seja A = {a1 , . . . , an } um conjunto com n elementos e B = {b1 , . . . , bm } um conjunto com m elementos. Designa-se por produto cartesiano o conjunto de pares (ai , bj ) em que o primeiro provém de A e o segundo de B e representa-se por A × B. O número de elementos de A × B é dados por #(A × B) = n × m. Considere agora que temos n elementos distintos, e pretendemos seleccionar k. De quantas maneiras distintas é possível seleccionar os k elementos? Como existem várias formas distintas de escolher os k elementos, a resposta à questão anterior é dada pela seguinte tabela: Interessa a ordem? Há repetição? Designação Sim Não Arranjos Sim Não Sim Não Arranjos com repetição Combinações Não Sim Combinações com repetição Número de maneiras distintas de escolher os k elementos nA nC k = n! k≤n (n−k)! , n A0 = nk k n n! k≤ = k (n−k)!k! , n C 0 = (n+k−1)! k (n−1)!k! k = n Observações: • “!” representa a função factorial (por convenção 0! = 1); • No caso particular em que interessa a ordem, não há repetição e estamos a seleccionar todos os elementos disponíveis (k = n), é mais usual designarmos Permutações de n elementos, Pn , em vez de n An . É obvio que n An = Pn = n!. 6 CAPÍTULO 1. INTRODUÇÃO À TEORIA DA PROBABILIDADE 1.4 Probabilidade Condicional e Independência Vamos começar por um exemplo que irá introduzir a noção de probabilidade condicional. Exemplo 1.16. Uma empresa farmacêutica realizou um ensaio clínico para comparar a eficácia de um novo medicamento (medicamento experimental). Escolheram-se ao acaso 200 doentes com a doença que se pretende curar. Metade desses doentes foram tratados com o novo medicamento e os restantes com um medicamento convencional. Ao fim de 5 dias, os resultados são os seguintes: Medicamento Experimental E Medicamento Convencional (E) Total Melhorou (M ) 69 58 127 Não melhorou (M ) 31 42 73 Total 100 100 200 1. Qual a probabilidade, de um doente escolhido ao acaso, (a) tomar o medicamento experimental? Resposta: Usando a regra de Laplace, P (E) = 100 200 = 12 . (b) tomar o medicamento experimental e melhorar? Resposta: Usando a regra de Laplace, P (E ∩ M ) = 69 200 . 2. Qual a probabilidade de um doente, que melhorou, ter tomado o medicamento experimental? Resposta: 69 127 . Observação: A solução da pergunta 2, do exemplo anterior, é igual a P (E∩M ) P (M ) . Definição 1.17 (Probabilidade Condicional). Sejam A e B dois acontecimentos. A probabilidade condicional de A dado B é P (A|B) = P (A ∩ B) , P (B) se P (B) > 0. Teorema 1.18 (Teorema da Probabilidade Composta). Sejam A e B dois acontecimentos tais que P (B) > 0. Então, resulta da definição de Probabilidade Condicional, P (A ∩ B) = P (A |B ) P (B) . Observação: Nalguns casos, a probabilidade condicional P (A|B) pode ser igual a P (A), ou seja, o conhecimento da ocorrência de B não afecta a probabilidade de A ocorrer. Definição 1.19 (Acontecimentos Independentes). Dois acontecimentos A e B dizem-se independentes se e só se, P (A ∩ B) = P (A) P (B) . 1.4. PROBABILIDADE CONDICIONAL E INDEPENDÊNCIA 7 Definição 1.20 (Partição do espaço de resultados). Dizemos que {E1 , . . . , En } é uma partição do espaço de resultados Ω quando Ei ∩ Ej = ∅ (i 6= j) e ∪ni=1 Ei = Ω. Teorema 1.21 (Teorema da Probabilidade Total). Seja {E1 , . . . , En } uma partição do espaço de resultados Ω, com P (Ei ) > 0, ∀i. Dado um qualquer acontecimento A, tem-se, P (A) = P (A |E1 ) P (E1 ) + . . . + P (A |En ) P (En ) . Teorema 1.22 (Teorema de Bayes). Seja {E1 , . . . , En } uma partição do espaço de resultados Ω, com P (Ei ) > 0, ∀i. Dado um qualquer acontecimento A, com P (A) > 0, tem-se P (A |Ei ) P (Ei ) . P (Ei |A ) = P n P (A |Ei ) P (Ei ) i=1 Demonstração. Aplicando a definição 1.17, de Probabilidade Condicional, depois o Teorema 1.18 da Probabilidade Composta e o Teorema 1.21 da Probabilidade Total, P (Ei |A ) = P (Ei ∩ A) P (A |Ei ) P (Ei ) = P . n P (A) P (A |Ei ) P (Ei ) i=1 Exemplo 1.23 (Teste de P.E. D - 2007/08). Diga, justificando, se a seguinte afirmação é verdadeira ou falsa: Três máquinas A, B e C produzem botões, respectivamente, 15%, 25% e 60% da produção total. As percentagens de botões defeituosos fabricados por estas máquinas são respectivamente 5%, 7% e 4%. Se ao acaso, da produção total de botões, for encontrado um defeituoso, a probabilidade de ele ter sido produzido pela máquina B é de cerca de 36%. Resolução: Sejam A, B, C e D os seguintes acontecimentos: A - O Botão é produzido pela máquina A; B - O Botão é produzido pela máquina B; C - O Botão é produzido pela máquina C; D - O Botão tem defeito; De acordo com o enunciado, temos as seguintes probabilidades: P (A) = 0.15, P (B) = 0.25, P (C) = 0.6, P (D|A) = 0.05, P (D|B) = 0.07 e P (D|C) = 0.04. 8 CAPÍTULO 1. INTRODUÇÃO À TEORIA DA PROBABILIDADE Pretende-se determinar P (B|D). Usando o Teorema de Bayes, obtemos: P (B|D) = P (D|B)P (B) 175 = ' 36%. P (D|A)P (A) + P (D|B)P (B) + P (D|C)P (C) 490 Logo a afirmação está correcta, isto é, a probabilidade de um botão defeituoso ter sido produzido pela máquina B é de cerca de 36%. Capítulo 2 Variáveis aleatórias 2.1 Variáveis aleatórias Definição 2.1 (Variável aleatória). Uma variável aleatória (v.a.), X : Ω → R, é uma função real e finita, tal que a imagem inversa de ] − ∞; x] é um acontecimento, isto é, Ax = X −1 (−∞; x] = {ω ∈ Ω : X (ω) ≤ x} com x ∈ R é um acontecimento. Observação: É fácil de verificar que se X é uma variável aleatória e g : R → R uma função, então Y = g(X) é também uma variável aleatória. Exemplo 2.2 (Variável aleatória). Considere a experiência aleatória que consiste no lançamento de 2 moedas equilibradas, e registo da face voltada para cima. O espaço de resultados é Ω = {(Ca, Ca), (Ca, Co), (Co, Ca), (Co, Co)}. Podemos, por exemplo, atribuir a cada um dos acontecimentos elementares de Ω, os seguinte valores: ω X(ω) (Ca,Ca) 2 (Ca,Co) 1 (Co,Ca) 1 (Co,Co) 0 Repare que ∅, x<0 {(Co, Co)} 0 ≤ x<1 Ax = X −1 ](∞; x]) = {(Co, Co), (Ca, Co), (Co, Ca)} 1 ≤ x < 2 Ω x≥2 Como todas as imagens inversas, X −1 (] − ∞; x]), são acontecimentos de Ω, então de acordo com a definição 2.1, X é uma variável aleatória. Observação: Relativamente ao Exemplo 2.2, X é a aplicação que atribui a cada acontecimento de Ω o número de caras. 9 10 2.2 CAPÍTULO 2. VARIÁVEIS ALEATÓRIAS Função de distribuição Definição 2.3 (Função de distribuição). A função de distribuição da v.a. X é: FX (x) = P (X ≤ x) = P ({ω : X(ω) ≤ x}), ∀x ∈ R. Exemplo 2.4. Considere novamente o Exemplo 2.2. A função de distribuição desta v.a. é: 0, x<0 1, 0 ≤ x < 1 4 FX (x) = P (X ≤ x) = 3 4, 1 ≤ x < 2 1, x≥2 Observação: Como FX (x) = P (X ≤ x), conclui-se que a função de distribuição existe sempre. Quando não existir mais do que uma v.a., pode-se representar a função de distribuição simplesmente por F . Propriedades da função de distribuição: 1. lim F (x) = 0 e x→−∞ lim F (x) = 1; x→+∞ 2. F é contínua à direita, isto é, lim F (x) = F (a); x→a+ 3. F é não decrescente, isto é, se x < y, então F (x) ≤ F (y). Teorema 2.5. Qualquer função F é uma função de distribuição se e só se verificar as três propriedades anteriores. Proposição 2.6. Seja X uma v.a. com função de distribuição F . Tem-se: P (X = x) = P (X ≤ x) − P (X < x) = F (x) − F (x− ), ∀x ∈ R, onde F (x− ) = lim F (t). t→x− Definição 2.7 (Variáveis aleatórias identicamente distribuídas). Duas variáveis aleatórias X e Y dizem-se identicamente distribuídas, se têm a mesma função de distribuição, isto é, se FX (x) = FY (x), ∀x ∈ R. 11 2.3. CLASSIFICAÇÃO DAS VARIÁVEIS ALEATÓRIAS 2.3 Classificação das variáveis aleatórias A função de distribuição não é necessariamente contínua em todos os valores x ∈ R. Podemos por isso classificar as variáveis aleatórias em função da continuidade da respectiva função de distribuição. Considere o conjunto de pontos de descontinuidade da função de distribuição F , D = {a ∈ R : P (X = a) > 0} . (2.1) Definição 2.8 (Variável aleatória discreta). Uma v.a. X diz-se do tipo discreto ou simplesmente discreta se o conjunto D é quanto muito numerável, e se P (X ∈ D) = 1. Definição 2.9 (Função de probabilidade). Seja X uma v.a. discreta. Chama-se função de probabilidade (f.p.), ou função massa de probabilidade, de X à função definida pelo conjunto dos valores de D e pelas respectivas probabilidades, isto é, por (xi , pi ) onde xi ∈ D e pi = P (X = xi ). Uma representação usual para a função de probabilidade da v.a. X, é: ( X= x1 x2 ... xi ... P (X = x1 ) P (X = x2 ) . . . P (X = xi ) . . . Propriedades da função de probabilidade: 1. P (X = xi ) = f (xi ) = pi ≥ 0; 2. P∞ i=1 pi = 1. Observação: Para qualquer subconjunto real I, P (X ∈ I) = P xi ∈I∩D P (X = xi ). Exemplo 2.10. Considere novamente o Exemplo 2.2. O conjunto de pontos de descontinuidade da função de distribuição é D = {0, 1, 2}. Como P (X ∈ D) = 1, conclui-se que X é uma v.a. discreta com função de probabilidade, ( X 0 1 2 1 4 1 2 1 4 Definição 2.11 (Variável aleatória contínua). Uma v.a. X diz-se do tipo contínuo ou simplesmente contínua se D = ∅ e se existe uma função não negativa, f , tal que para I ⊆ R, P (X ∈ I) = Z f (x)dx. I À função f chamamos função densidade probabilidade ou função densidade. 12 CAPÍTULO 2. VARIÁVEIS ALEATÓRIAS Propriedades da função densidade probabilidade: 1. f (x) ≥ 0, ∀x ∈ R; 2. Observação: Como R R +∞ −∞ f (x) dx = 1. f (x)dx é um integral de uma função não negativa e é sempre convergente, I então a P (X ∈ I), corresponde ao valor da área entre o eixo das abcissas e o gráfico da função f no intervalo I considerado. Consequentemente P (X = x) = 0, ∀x ∈ R e P (x1 ≤ X ≤ x2 ) = P (x1 < X ≤ x2 ) = P (x1 ≤ X < x2 ) = P (x1 < X < x2 ), ∀ x1 ≤ x2 . Observação: Por definição, F 0 (x) = f (x), nos pontos onde existe derivada. Se não existir derivada, f (x) = 0. 2.4 Momentos Qualquer variável aleatória possui algumas características numéricas importantes. As mais conhecidas são o valor médio e a variância. Nesta secção vamos estudar outras características mais gerais: os Momentos. Definição 2.12 (Valor médio). O valor médio, valor esperado ou simplesmente média da v.a. X é dado por, µ = E(X) = P ∞ xi P (X = xi ) se X é uma v.a. discreta; i=1 +∞ R xf (x)dx se X é uma v.a. contínua; −∞ desde que a série/integral seja absolutamente convergente. Definição 2.13 (Valor médio de uma função de uma variável aleatória). Seja X uma v.a. e g uma função real de variável real contínua com quanto muito um conjunto numerável de pontos de descontinuidade. Então o valor médio de Y = g(X) é dado por: E(g(X)) = P ∞ g(xi )P (X = xi ) se X é uma v.a. discreta; i=1 +∞ R g(x)f (x)dx se X é uma v.a. contínua; −∞ desde que a série/integral seja absolutamente convergente. Exemplo 2.14. Considere a variável aleatória introduzida no Exemplo 2.2. Os valores médios de X e g(X) = X 2 , são respectivamente: E(X) = 0 × 1 4 + 2 1× 1 2 +2× E(g(X)) = E(X ) = 02 × 1 4 1 4 2 = 1, +1 × 1 2 + 22 × 1 4 = 32 . 13 2.4. MOMENTOS Propriedades do valor esperado: 1. Se a é uma constante, E(a) = a; 2. Se a e b são constantes, E(aX + b) = aE(X) + b. 3. Se existirem E(g1 (X)) e E(g2 (X)), então E(g1 (X) + g2 (X)) = E(g1 (X)) + E(g2 (X)). Definição 2.15 (Momentos de ordem k). Seja X uma variável aleatória. Definem-se momentos de ordem k em torno da origem por: mk = E(X k ), e os momentos centrais de ordem k de X por: µk = E((X − µ)k ), desde que os valores esperados existam. Definição 2.16 (Variância e desvio padrão). A variância da v.a. X, σ 2 ou V (X), é o momento central de ordem dois, isto é, σ 2 = V (X) = E((X − µ)2 ), desde que exista o valor esperado de (X − µ)2 . À sua raiz quadrada positiva, σ = p V (X), chamamos desvio padrão da v.a. X. Proposição 2.17. Se X é uma v.a., para a qual existe variância, V (X) = E X 2 −E 2 (X). Propriedades da Variância: 1. Se a é uma constante, V (a) = 0; 2. Se a e b são constantes, V (aX + b) = a2 V (X). Exemplo 2.18. Considere a variável aleatória introduzida no Exemplo 2.2. A variância de X é: V (X) = E((X − 1)2 ) = (0 − 1)2 × 1 4 + (1 − 1)2 × 1 2 + (2 − 1)2 × 1 4 = 12 . Nota: A variância também podia ser calculada através do resultado da Proposição 2.17. 14 CAPÍTULO 2. VARIÁVEIS ALEATÓRIAS Teorema 2.19 (Desigualdade de Chebychev). Se X é uma v.a. para a qual existe variância σ 2 e c > 0 é uma constante real positiva, então P (|X − µ| ≥ cσ) ≤ 1 c2 ⇔ P (|X − µ| < cσ) ≥ 1 − 1 . c2 Exemplo 2.20 (Desigualdade de Chebychev). Para c = 2, podemos dizer que a probabilidade da v.a. X assumir valores no intervalo ]µ − 2σ, µ + 2σ[ é superior a 1 − 1/4 = 0.75. Observação: A generalidade da Desigualdade de Chebychev impede-a de ser muito precisa. 2.5 Outros parâmetros relevantes Definição 2.21 (Coeficiente de variação). Seja X uma v.a. com suporte não negativo. O Coeficiente de variação de X é, CV = σ × 100%. µ Definição 2.22 (Coeficiente de Simetria). O Coeficiente de simetria, de uma v.a. X, é definido por β1 = µ3 . σ3 Definição 2.23 (Coeficiente de achatamento ou Kurtosis). Define-se o coeficiente de achatamento ou kurtosis como β2 = µ4 − 3. σ4 Definição 2.24 (Quantil). O quantil de ordem p, χp , da v.a. X é a solução da equação: F (χp ) = p, 0 < p < 1. Se X é uma v.a. discreta, a equação F (χp ) = p pode não ter solução exacta. Neste caso considera-se χp = min{x : F (x) ≥ p}. Definição 2.25 (Mediana). Trata-se do quantil de ordem p = 1/2. Costuma-se representar a mediana, da v.a. X, por med(X). Definição 2.26 (Moda). A Moda, representada por mo, é o valor que maximiza a função de probabilidade ou a função densidade probabilidade, desde que seja único. 15 2.6. FUNÇÕES DE UMA VARIÁVEL ALEATÓRIA 2.6 Funções de uma variável aleatória Existem muitas formas de criar novas variáveis aleatórias, a partir de outras já conhecidas. Muitas destas variáveis aparecem de forma natural com a resolução de problemas. Assim, sejam X e Y variáveis aleatórias tais que Y é função de X (Y = g(X)). Interessa-nos saber como conhecer a distribuição de Y . Para isso basta conhecer a sua função de distribuição, FY . Independentemente de X ser uma v.a. discreta ou contínua, podemos sempre obter a sua função de distribuição do seguinte modo: FY (y) = P (Y ≤ y) = P (g(X) ≤ y) = P (Ay ), onde Ay = {x ∈ Dx : g(x) ≤ y}. Geralmente consegue-se calcular P (Ay ), a partir da função de distribuição de X, FX . Exemplo 2.27. Considere a v.a. X com função de distribuição, FX (x) = x≤0 0<x<1 x≥1 0, 5x4 − 4x3 , 1, Estamos interessados em conhecer a distribuição das v.a.’s Y = 2X − 1 e W = X 2 . Comecemos por determinar a f.d. da v.a. Y : FY (y) = P (Y ≤ y) = P (2X − 1 ≤ y) = P (X ≤ = = 5 5 y+1 4 2 y+1 4 2 0, −4 1, y+1 3 0, −4 1, y+1 3 , 2 2 , 0< y+1 2 y+1 2 y+1 2 y+1 2 ) = FX ( y+1 2 )= ≤0 <1 ≥1 y ≤ −1 −1 < y < 1 y≥1 Determinemos agora a função de distribuição de W . É obvio que se w < 0, FW (w) = 0. Se w ≥ 0, √ √ √ √ √ FW (w) = P (W ≤ w) = P (− w ≤ X ≤ w) = FX ( w) − FX (− w) = FX ( w) = ( √ √ 3 √ 4 5 w −4 w , 0≤ w <1 √ = 1, w≥1 ( = 5w2 − 4w3/2 , 0 ≤ w < 1 1, w≥1 A procedimento, acima indicado, é válido quer X seja uma v.a. contínua ou uma v.a. discreta. Contudo no caso de X ser uma v.a. discreta, Y = g(X) é também uma v.a. discreta. Nesta situação podemos também conhecer de distribuição de Y a partir da sua função de probabilidade. 16 CAPÍTULO 2. VARIÁVEIS ALEATÓRIAS Assim, seja Dx o suporte de X, isto é, o conjunto dos valores de X com probabilidade positiva. Então, P (Y = y) = P (g(X) = y) = P (X ∈ Ay ), onde Ay = {x ∈ Dx : g(x) = y}. Exemplo 2.28. Considere novamente a variável aleatória introduzida no Exemplo 2.2 e a nova variável aleatória Y = (X − 1)2 . Sendo X uma v.a. discreta, concluímos que Y é também uma v.a. discreta. Como X tem como suporte os valores 0, 1,e 2, o suporte de Y é o conjunto dos valores 0 e 1. Resulta que P (Y = 0) = P ((X − 1)2 = 0) = P (X = 1) = 21 , P (Y = 1) = P ((X − 1)2 = 1) = P (X − 1 = −1 ∨ X − 1 = 1) = = P (X = 0) + P (X = 2) = Então a função de probabilidade de Y é ( Y 0 1 1 2 1 2 1 4 + 41 . Capítulo 3 Vectores aleatórios Sejam X1 , X2 , . . . , Xm m variáveis aleatórias. Então X = (X1 , X2 , . . . , Xm ) é um vector aleatório de dimensão m. Vamos restringir-nos apenas aos pares aleatórios (X, Y ) = (X1 , X2 ), isto é, aos vectores aleatórios com m = 2. Estes podem ser do tipo discreto, contínuo ou misto, conforme X e Y são v.a. de tipo discreto, contínuo ou uma discreta e a outra contínua. Definição 3.1 (Função de distribuição conjunta). Seja (X, Y ) um par aleatório. A função de de distribuição de (X, Y ) é: FX,Y (x, y) = P (X ≤ x, Y ≤ y), 3.1 ∀(x, y) ∈ R2 . Par aleatório discreto Definição 3.2 (Par aleatório discreto). Diz-se que (X, Y ) é um par aleatório discreto se e só se X e Y são variáveis aleatórias discretas. Definição 3.3 (Função de probabilidade conjunta). Seja (X, Y ) um par aleatório discreto tomando valores no conjunto D = {(xi , yj ) ∈ R2 : P (X = xi , Y = yj ) > 0}. Chamamos função de probabilidade conjunta (f.p.c.) de (X, Y ) à função: pij = P (X = xi , Y = yj ), i = 1, 2, . . . , j = 1, 2, . . . Propriedades da função de probabilidade conjunta: 1. 0 ≤ pij ≤ 1, ∀(xi , yj ) ∈ D; 2. XX i pij = 1 j Observação: Quando o conjunto D é finito e pequeno é costume representar a f.p.c. numa tabela, idêntica à que a seguir se apresenta: 17 18 CAPÍTULO 3. VECTORES ALEATÓRIOS X\Y y1 y2 ... yn x1 x2 .. . p11 p21 .. . p12 p22 .. . ... ... .. . p1n p2n .. . p1• p2• .. . xm pm1 pm2 ... pmn pm• p•1 p•2 ... p•m 1 Definição 3.4 (Função de probabilidade marginal). Define-se função de probabilidade marginal de X e função de probabilidade marginal de Y como: pi• = P (X = xi ) = p•j = P (Y = yj ) = ∞ X j=1 ∞ X ∞ X P (X = xi , Y = yj ) = j=1 ∞ X P (X = xi , Y = yj ) = i=1 pij , i = 1, 2, . . . pij , j = 1, 2, . . . i=1 Definição 3.5 (Função de probabilidade condicional). Seja (X, Y ) um par aleatório discreto. Define-se probabilidade condicional de X dado Y = yj como, P (X = xi |Y = yj ) = pij P (X = xi , Y = yj ) = , P (Y = yj ) p•j se P (Y = yj ) > 0, se P (X = xi ) > 0. e probabilidade condicional de Y dado X = xi como P (Y = Yj |X = Xi ) = pij P (X = xi , Y = yj ) = , P (X = xi ) pi• Definição 3.6 (Independência entre variáveis aleatórias discretas). As v.a.’s X e Y dizem-se independentes se, e só se, pij = pi• p•j , ∀i, j. Exemplo 3.7. Seja (X, Y ) um par aleatório discreto com a seguinte f.p.c.: X \ Y 0 1 2 0 1/4 1/8 0 3/8 1 1/8 1/8 0 1/4 (a) Qual a probabilidade de X ser maior que Y ? (b) Calcule P (X ≤ 1; Y > 0). 2 0 1/8 1/4 3/8 3/8 3/8 1/4 (Solução: 1/8) (Solução: 3/8) (c) X e Y são v.a.’s independentes? (Solução: X e Y não são independentes) (d) Determine a função de probabilidade de X|Y = 2 e calcule E(X|Y = 2). 19 3.2. PAR ALEATÓRIO CONTÍNUO 3.2 Par aleatório contínuo Definição 3.8 (Par aleatório contínuo). Um par aleatório (X, Y ) diz-se contínuo se existe uma função não negativa fX,Y tal que, tal que, para qualquer região I ⊂ R2 , P ((X, Y ) ∈ I) = Z Z fX,Y (u, v)dudv. I A fX,Y chamamos função densidade probabilidade conjunta ou função densidade conjunta. Propriedades da função densidade probabilidade conjunta: 1. fX,Y (x, y) ≥ 0, 2. R +∞ R +∞ −∞ −∞ ∀(x, y) ∈ R2 ; fX,Y (x, y)dxdy = 1. Definição 3.9 (Função densidade de probabilidade marginal). Define-se a função densidade de probabilidade marginal de X, como: Z +∞ fX (x) = −∞ f(X,Y ) (x, y) dy, ∀x ∈ R De modo análogo obtêm-se a função densidade de probabilidade marginal de Y , Z +∞ fY (y) = −∞ f(X,Y ) (x, y) dx, ∀y ∈ R Definição 3.10 (Função densidade condicional). Em todos os pontos (x, y) onde fX,Y é contínua, fY (y) > 0 e é contínua, a função densidade condicional de X, dado Y = y, existe e calcula-se como: fX|Y (x|y) = fX,Y (x, y) . fY (y) De modo análogo, em todos os pontos (x, y) onde fX,Y é contínua, fX (x) > 0 e é contínua, a função densidade condicional de Y , dado X = x, existe e calcula-se como: fY |X (y|x) = fX,Y (x, y) . fX (x) Definição 3.11 (Independência entre variáveis aleatórias contínuas). Seja (X, Y ) um par aleatório contínuo. As variáveis X e Y dizem-se independentes se e só se fX,Y (x, y) = fX (x)fY (y), ∀ (x, y) ∈ R2 20 CAPÍTULO 3. VECTORES ALEATÓRIOS Exemplo 3.12. Os tempos de vida, em centenas de horas, das duas componentes principais de um sistema de controlo são v.a.’s (X, Y ) com função densidade conjunta ( cx2 y 0 < x < 3, 0 < y < 2 0 outros valores de (x, y) ∈ R2 fX,Y (x, y) = (a) Qual o valor de c? fX,Y (x, y) ≥ 0, ∀ (x, y) ∈ R2 ⇒ c ≥ 0 Z +∞ Z +∞ −∞ −∞ fX,Y (x, y) dxdy = 1 ⇔ Z 2 Z 3 cx2 y dx dy = 1 ⇔ c = 0 0 1 18 (b) Qual a probabilidade de cada uma das componentes durar mais de 100 horas? P (X > 1, Y > 1) = Z 2Z 3 1 1 1 18 x2 y dxdy = 13 18 (c) Qual a probabilidade da 1a componente durar mais de 100 horas? Como fX (x) = R +∞ −∞ f(X,Y ) (x, y) dy = Z P (X > 1) 3 Z 3 fX dx = = 1 1 R2 1 2 x y 0 18 dy = x2 9 , 0 < x < 3, resulta que: x2 26 dx = 9 27 (d) Os tempos de vida das componentes são independentes? Como fY (y) = f (x, y) = y/2 0 0<y<2 o. v. de y 1 2 18 x y 0 fX (x) = x2 /9 0 0<x<3 o. v. de x 0 < x < 3, 0 < y < 2 = fX (x) fY (y) o. v. (x, y) Conclui-se que X e Y são v.a.’s independentes. 3.3 Momentos de vectores aleatórios Definição 3.13 (Valor médio). Seja (X, Y ) um par aleatório e g : R2 → R uma função real. Define-se valor médio ou valor esperado ou média de g(X, Y ) como: E(g(X, Y )) = ∞ ∞ P P g(xi , yj )pij se X e Y são v.a.’s discretas; i=1 j=1 +∞ R +∞ R g(x, y)fX,Y (x, y)dxdy se X e Y são v.a.’s contínuas. −∞ −∞ Nota: Uma das funções mais utilizadas é g(x, y) = xy, obtendo-se: E(XY ) = ∞ ∞ P P xi yj pij i=1 j=1 +∞ R +∞ R se X e Y são v.a.’s discretas; xyfX,Y (x, y)dxdy se X e Y são v.a.’s contínuas. −∞ −∞ 3.3. MOMENTOS DE VECTORES ALEATÓRIOS 21 Definição 3.14 (Covariância). Sendo µX = E(X) e µY = E(Y ), define-se covariância entre as v.a.’s X e Y por: Cov (X, Y ) = E [(X − µX ) (Y − µY )] . Proposição 3.15. Caso exista a covariância entre X e Y , esta pode ser calculada através da fórmula: Cov (X, Y ) = E (XY ) − E (X) E (Y ) . Outras propriedades do valor médio e variância: 1. E(X ± Y ) = E(X) ± E(Y ); 2. V (X ± Y ) = V (X) + V (Y ) ± 2 Cov(X, Y ). Proposição 3.16. Se X e Y são independentes, então E(XY ) = E(X)E(Y ), e consequentemente Cov(X, Y ) = 0. Propriedades da Covariância: Sejam X, Y , e Z v.a.’s, a, b e c constantes reais. Então: 1. Cov(X, Y ) = Cov(Y, X); 2. Cov(X, X) = V (X); 3. Cov (a + bX, c + dY ) = bd Cov (X, Y ); 4. Cov (aX + bY, cZ) = ac Cov (X, Z) + bc Cov (Y, Z). Definição 3.17 (Coeficiente de correlação). Define-se coeficiente de correlação de (X, Y ) por Cov (X, Y ) . ρ (X, Y ) = p V (X) V (Y ) Propriedades do coeficiente de correlação: 1. −1 ≤ ρ (X, Y ) ≤ 1; 2. Se X e Y são v.a.’s independentes, então ρ (X, Y ) = 0. 22 CAPÍTULO 3. VECTORES ALEATÓRIOS Capítulo 4 Principais Distribuições 4.1 Distribuições discretas 4.1.1 Distribuição Uniforme Definição 4.1 (Distribuição Uniforme Discreta). Dizemos que a variável aleatória X segue uma distribuição Uniforme Discreta de parâmetro n e escrevemos X ∼ U nif (n), ou abreviadamente, X ∼ U (n), se a função de probabilidade de X é dada por: ( X 1 2 1 n 1 n ... n . . . n1 ou P (X = x) = 1 , n x = 1, . . . , n. A respectiva função de distribuição é: F (x) = 0, x<1 k n, k = 1, . . . , n − 1 . k ≤ x < k + 1, 1, x≥n Proposição 4.2 (Valor médio e Variância). Considere a v.a. X ∼ U nif (n). Então, E(X) = Demonstração. E(X) = n+1 2 e V (X) = n2 − 1 . 12 1 n X x x=1 n 1 1X 1 n(n + 1) n+1 = x= × = . n n x=1 n 2 2 Para calcular a variância, é mais fácil utilizar o resultado V (X) = E(X 2 ) − E 2 (X). Assim, n 1X 1 n(n + 1)(2n + 1) (n + 1)(2n + 1) E(X ) = x = x2 = × = . n n n 6 6 x=1 x=1 2 Logo V (X) = 1 n X 21 (n+1)(2n+1) 6 − n+1 2 2 = n2 −1 12 . Utilizam-se aqui os resultados, 1 + 2 + 3 + . . . + n = que se podem confirmar por Indução Matemática. n(n+1) 2 23 e 12 + 22 + 32 + . . . + n2 = n(n+1)(2n+1) , 6 n ∈ N, 24 CAPÍTULO 4. PRINCIPAIS DISTRIBUIÇÕES 4.1.2 Distribuição de Bernoulli Definição 4.3 (Prova de Bernoulli). Trata-se de um experiência aleatória com apenas dois resultados possíveis (que se costumam designar por “Sucesso” ou “Insucesso”). Definição 4.4 (Distribuição de Bernoulli). É sempre possível definir uma variável aleatória X que toma o valor 1 se o resultado da experiência é “Sucesso” e 0 se é “Insucesso”. Denotando p = P (“Sucesso”) > 0, então a função de probabilidade de X é dada por: ( 0 1 1−p p X P (X = x) = px (1 − p)1−x , ou x = 0, 1, 0 < p < 1. Dizemos que a v.a. X segue uma distribuição de Bernoulli, de parâmetro p, e escrevemos X ∼ Ber(p). Proposição 4.5. Seja a v.a. X ∼ Ber(p). Então E(X) = p 4.1.3 V (X) = p(1 − p). e Distribuição Binomial Definição 4.6 (Distribuição Binomial). Considere-se uma sucessão de provas de Bernoulli independentes, onde em cada prova a probabilidade de “sucesso”, p, é constante. A v.a. X= “número de sucessos em n provas de Bernoulli” segue uma distribuição Binomial de parâmetros n e p, e escrevemos X ∼ Bin(n, p). A função de probabilidade é: ! px (1 − p)n−x , x = 0, 1, . . . , n, 1 2 x 3 4 P(X=k) 0.1 0.2 0.3 0.4 0.5 0 0.0 0.1 0.2 P(X=k) 0.3 0.4 0.4 0.3 P(X=k) 0.2 0.1 0.0 Bin(n=4 , p=0.75) 0.5 Bin(n=4 , p=0.5) 0.5 Bin(n=4 , p=0.25) 0 < p < 1. 0 1 2 x 3 4 0.0 P (X = x) = n x 0 1 2 3 4 x Figura 4.1: Gráficos da função de probabilidade de uma v.a. Bin(4, p), para alguns valores de p. 4.1. DISTRIBUIÇÕES DISCRETAS 25 Observação: Pela definição anterior, temos que X = I1 + I2 + . . . + In , onde Ii , i = 1, . . . , n são v.a.’s independentes com distribuição Ber(p). Proposição 4.7. Seja X uma variável aleatória com distribuição Bin(n, p). Então a nova v.a. Y = n − X tem distribuição Bin(n, 1 − p). Proposição 4.8 (Valor médio e Variância). Considere a v.a. X ∼ Bin(n, p). Então, E(X) = np e V (X) = np(1 − p). Demonstração. A demonstração torna-se mais simples se usarmos a representação X = I1 + I2 + . . . + In , introduzida na última observação. Assim, E(X) = E(I1 + I2 + . . . + In ) = E(I1 ) + E(I2 ) + . . . + E(In ) = p + p + . . . + p = np. Atendendo à independência das variáveis Ii , V (X) = V (I1 + I2 + . . . + In ) = V (I1 ) + V (I2 ) + . . . + V (In ) = np(1 − p). Exemplo 4.9 (Exame de P.E. D - 2007/08). Num concurso de televisão o apresentador propõe ao concorrente o seguinte jogo: atiram-se ao ar 3 moedas, em simultâneo, e se todos os lançamentos resultarem em caras o apresentador dá 10 e ao concorrente; Se todos os lançamentos resultarem em coroas o apresentador dá igualmente ao concorrente 10 e. Mas se os lançamentos resultarem em 2 caras e 1 coroa ou em 2 coroas e 1 cara, o concorrente tem de dar ao apresentador 5 e. (a) Represente X a quantidade de dinheiro ganha pelo concorrente. Determine a sua função de probabilidade. (b) Baseado no valor esperado de X, diga se o concorrente deve aceitar jogar este jogo. Resolução: (a) Considere a v.a. Y: “número de caras obtidas em 3 lançamentos de uma moeda (equilibrada)”. Então como em cada lançamento o resultado é cara (sucesso) ou coroa (insucesso) e os resultados dos lançamentos são mutuamente independentes, Y ∼ Bin(3, 1/2). Como P (X = −5) = P (Y = 1) + P (Y = 2) = 3/4 e P (X = 10) = P (Y = 0) + P (Y = 3) = 1/4, resulta a seguinte função de probabilidade: X −5 3/4 10 1/4 (b) Como E(X) = −5/4 < 0, o concorrente não deve jogar. 26 CAPÍTULO 4. PRINCIPAIS DISTRIBUIÇÕES Proposição 4.10 (Aditividade). Sejam Xi , i = 1, . . . , m, m v.a.’s independentes tais que Xi ∼ Bin(ni , p). Então a sua soma tem também distribuição Binomial, isto é, m X Sm = Xi ∼ Bin(n1 + . . . + nm , p). i=1 4.1.4 Distribuição Geométrica Definição 4.11 (Distribuição Geométrica). Considere-se uma sucessão de provas de Bernoulli independentes, onde em cada prova a probabilidade de “sucesso”, p, é constante. A v.a. X= “número de provas necessárias até ocorrer o primeiro sucesso” segue uma distribuição Geométrica de parâmetro p, e escrevemos X ∼ G(p). A função de probabilidade é: P (X = x) = p(1 − p)x−1 , x = 1, 2, . . . , 0 < p < 1. Observação: O nome desta distribuição deve-se ao facto da sucessão das probabilidades ser uma progressão geométrica de razão 1 − p. 0.4 0.3 P(X=k) 0 5 10 15 20 0.0 0.1 0.2 0.3 0.2 0.0 0.1 P(X=k) 0.4 0.5 G(0.5) 0.5 G(0.25) 0 5 x 10 15 20 x Figura 4.2: Gráficos da função de probabilidade de uma v.a. G(p), para alguns valores de p. Proposição 4.12 (Valor médio e Variância). Considere a v.a. X ∼ G(p). Então, E(X) = 1 p e V (X) = 1−p p2 Demonstração. O cálculo do valor médio e da variância é mais fácil se usarmos alguns dos resultados das séries de funções: Assim seja S(r) = Resulta que: 1. S(r) = ∞ P 1 rk = 1−r , |r| < 1; k=0 2. S 0 (r) = ∞ P k=1 krk−1 = 1 , (1−r)2 |r| < 1; P∞ k=0 r k uma série geométrica de razão r. 27 4.1. DISTRIBUIÇÕES DISCRETAS 3. S 00 (r) = ∞ P k(k − 1)rk−2 = k=2 2 , (1−r)3 |r| < 1. Assim, E(X) = ∞ X x p(1 − p)x−1 = p S 0 (1 − p) = p p12 = p1 . x=1 Para se conseguir calcular a variância, de um modo mais fácil, usa-se mais uma vez o resultado V (X) = E(X 2 ) − E 2 (X). Tem-se, E(X 2 ) = = ∞ X ∞ X x2 p(1 − p)x−1 = x=1 ∞ X x(x − 1 + 1) p(1 − p)x−1 = x=1 x−1 x(x − 1) p(1 − p) + x=1 ∞ X x p(1 − p)x−1 = x=1 = p(1 − p) ∞ X x(x − 1) (1 − p)x−2 + E(X) = p(1 − p)S 00 (1 − p) + E(X) = x=2 = p(1 − p) p23 + 1 p = 2(1−p)+p p2 = 2−p p2 Então, V (X) = 2−p p2 − 1 p2 = 1−p . p2 Proposição 4.13. Temos que F (x) = P (X ≤ x) = 1 − (1 − p)[x] , x ≥ 1, onde [x] representa a parte inteira de x; Como as provas de Bernoulli são independentes, a contagem do número de provas necessárias até ao proximo sucesso pode ser recomeçada em qualquer prova, sem que isso altere a distribuição da variável aleatória. Proposição 4.14 (Propriedade da falta de memória da distribuição Geométrica). Seja X ∼ G(p). Sendo x e y inteiros positivos, P (X > x + y|X > y) = P (X > x). 4.1.5 Distribuição Hipergeométrica Definição 4.15 (Distribuição Hipergeométrica). Considere-se uma população de N elementos, dos quais M possuem determinada característica e os restantes (N − M ) não a possuem (dicotomia). Considere-se a experiência aleatória que consiste em seleccionar ao acaso e sem reposição n elementos (amostra). Associada a esta experiência aleatória, defina-se a v.a. X - no 28 CAPÍTULO 4. PRINCIPAIS DISTRIBUIÇÕES de elementos com a característica, entre os seleccionados sem reposição. Esta v.a. X tem uma função de probabilidade, P (X = x) = M N −M x n−x , N n max(0, M + n − N ) ≤ x ≤ min(M, n), e diz-se ter distribuição Hipergeométrica de parâmetros (N, M, n) (pode ser escrito abreviadamente X ∼ H(N, M, n)). Proposição 4.16 (Valor médio e Variância). Seja a v.a. X ∼ H(N, M, n). Então: E(X) = n M N e M V (X) = n N 2 (N (N − M )(N − n). −1) Exemplo 4.17. Num aquário existem 9 peixes, dos quais 5 estão saudáveis (S) e os restantes 4 estão doentes (D). Considere-se a experiência aleatória: extracção ao acaso e sem reposição de 3 peixes e registo do seu estado de saúde. Associada a esta experiência, considere-se a v.a. X número de peixes saudáveis na amostra extraída de 3 peixes. Quantos peixes saudáveis esperamos encontrar em cada extracção? Resposta: Como X ∼ H(9, 5, 3), o número de peixes saudáveis, que esperamos encontrar em cada extracção de 3 peixes, é E(X) = 5/3. Nota: Em situações em que se conhece totalmente a composição da população e há apenas dois resultados possíveis, a distribuição Binomial caracteriza extracções com reposição. Se não houver reposição, a distribuição adequada é a Hipergeométrica. Quando n é pequeno, relativamente ao valor de N , a probabilidade de sucesso em cada tiragem sem reposição varia muito pouco de prova para prova (na distribuição Binomial este valor é constante). Este argumento permitenos aproximar o(s) valor(es) da(s) probabilidade(s) pela distribuição Hipergeométrica, pelo(s) valor(es) da(s) probabilidade(s) pela distribuição Binomial. Aproximação da distribuição Hipergeométrica pela distribuição Binomial: n Seja X uma v.a. tal que X ∼ H(N, M, n). Então, caso N ≤ 0.1, isto é, caso o tamanho da amostra seja muito pequeno em relação ao tamanho da população, podemos aproximar a distribuição de X pela distribuição Bin(n, p), com p = M N, ou seja, (M )(N −M ) P (X = x) = x Nn−x ≈ (n) ! n (M/N )x (1 − M/N )n−x . x 29 4.1. DISTRIBUIÇÕES DISCRETAS 4.1.6 Distribuição de Poisson Definição 4.18 (Processo de Poisson). Suponha que estamos interessados em estudar a variável aleatória X que conta o número de ocorrências de um acontecimento num dado intervalo de tempo2 de duração t (por exemplo, o número de acidentes rodoviários ocorridos num dia ou o número de clientes que entram numa loja durante 1 hora). Temos um processo de Poisson de parâmetro λ > 0, quando se verificam as seguintes condições: 1. A probabilidade p de ocorrer exactamente um acontecimento num intervalo de amplitude arbitrariamente pequena d é proporcional à sua duração, isto é, p = λd; 2. A probabilidade de ocorrer mais do que um acontecimento num intervalo de amplitude arbitrariamente pequena é aproximadamente igual a zero; 3. O número de acontecimentos que ocorrem em dois intervalos disjuntos são independentes. 4. O número de ocorrências em dois intervalos com a mesma duração, têm a mesma distribuição. Para deduzir a função de probabilidade, vamos considerar um intervalo unitário (t = 1), dividido em n sub-intervalos, todos com amplitude d = 1/n, com n suficientemente grande. Nas condições acima indicadas, o número de ocorrências em cada sub-intervalo é bem aproximado por uma v.a. Ber(p), com p = λ/n. Então X tem aproximadamente distribuição Bin(n, λ/n), isto é, P (X = x) ≈ n x ! λ x n 1− λ n−x , n x = 0, 1, . . . , n. Se n → ∞, P (X = x) = lim n→∞ n x ! λ x n 1− λ n−x n = e−λ λx x! x = 0, 1, . . . , n. Definição 4.19 (Distribuição de Poisson). Dizemos que a variável aleatória X segue uma distribuição de Poisson de parâmetro λ, e escrevemos X ∼ P (λ), se a função de probabilidade de X é: P (X = x) = e−λ λx , x! x = 0, 1, 2, . . . , λ > 0. Observação: Se num processo de Poisson, os acontecimentos acorrem a uma taxa média λ, por unidade de tempo, então o número de ocorrências num intervalo de amplitude t > 0 tem distribuição de Poisson de parâmetro λt. 2 Note que podemos também considerar uma área, um volume, etc. 30 CAPÍTULO 4. PRINCIPAIS DISTRIBUIÇÕES Por exemplo, se durante a hora de almoço (das 12 às 14 horas) a chegada de automóveis a um parque se processa a uma taxa de 180 automóveis por hora e tem distribuição de Poisson, então a distribuição do número de automóveis que chegam em 15 minutos é Poisson com parâmetro 1 4 λt = 180 × = 45. A distribuição do número de automóveis que chegam durante a hora do P(X=k) P(2) 0 5 10 15 20 0.00 0.05 0.10 0.15 0.20 0.25 0.30 P(X=k) 0.00 0.05 0.10 0.15 0.20 0.25 0.30 almoço é Poisson de parâmetro λt = 180 × 2 = 360. P(10) 0 x 5 10 15 20 x Figura 4.3: Função de probabilidade de uma v.a. P (λ), para alguns valores de λ. Proposição 4.20 (Valor médio e Variância). Seja X uma v.a. com distribuição P (λ). Então, E(X) = λ e V (X) = λ. Aproximação da distribuição Binomial pela distribuição de Poisson Seja X uma v.a. tal que X ∼ Bin(n, p). É possível de verificar que ! lim n→∞ np→λ n x λx p (1 − p)(n−x) = e−λ , x x! x = 0, 1, 2, . . . Então, caso n ≥ 50 e np ≤ 5, pode-se aproximar a distribuição de Binomial pela distribuição de Poisson com λ = np. Teorema 4.21 (Aditividade). Sejam X1 , X2 , . . . , Xm variáveis aleatórias independentes com Xi ∼ P (λi ), i = 1, . . . , m. Então, Sm = m X i=1 Xi ∼ P (λ1 + . . . + λm ). 31 4.2. DISTRIBUIÇÕES CONTÍNUAS 4.2 Distribuições Contínuas 4.2.1 Distribuição Uniforme Contínua Definição 4.22 (Distribuição Uniforme Contínua). Dizemos que a variável aleatória X segue uma distribuição Uniforme (contínua) no intervalo [a, b], −∞ < a < b < +∞, e escrevemos X ∼ U nif (a, b), ou X ∼ U (a, b), se a função densidade probabilidade de X é dada por: ( 1 b−a , a≤x≤b 0, c.c. f (x) = A respectiva função de distribuição é dada por, F (x) = 0, x−a b−a , 1, x<a a≤x<b x≥b f (x) 6 F (x) 6 1 b−a 1 - a b x a - b x Figura 4.4: Função densidade (esquerda) e função de distribuição (direita) de uma v.a. U (a, b). Proposição 4.23 (Valor médio e Variância). Seja a v.a. X ∼ U (a, b). Então: E(X) = a+b 2 e V (X) = (b − a)2 . 12 Demonstração. Z b Z +∞ E(X) = xf (x)dx = −∞ a " x x2 dx = b−a 2(b − a) #a = b b2 − a2 a+b = 2(b − a) 2 Como, 2 Z +∞ E(X ) = 2 x f (x)dx = −∞ Z b x2 a " x3 dx = b−a 3(b − a) #a = b b2 + ab + a2 , 3 32 CAPÍTULO 4. PRINCIPAIS DISTRIBUIÇÕES resulta que a variância é V (X) = E(X 2 ) − E 2 (X) = b2 + ab + a2 (a + b)2 b2 + a2 − 2ab (b − a)2 − = = . 3 4 12 12 O caso particular da distribuição Uniforme com a = 0 e b = 1 é o que apresenta mais interesse, devido ao seguinte teorema: Teorema 4.24 (Teorema da Transformação Uniformizante). Seja X uma variável aleatória contínua, com função de distribuição FX (x). Então a variável aleatória Y = FX (X) tem distribuição U (0, 1). 4.2.2 Distribuição Exponencial Começamos por introduzir a função Gama, presente em muitos livros de Análise Matemática. A função Gama corresponde ao integral: Z ∞ Γ(a) = xa−1 e−x dx, a>0 (4.1) 0 Propriedades da função Gama: 1. Γ(α + 1) = αΓ(α); 2. Γ(n) = (n − 1)!, √ 3. Γ(1/2) = π 4. n∈N R ∞ α−1 −βx e dx = Γ(α) 0 x βα . Definição 4.25 (Distribuição Exponencial). Uma variável aleatória X diz-se seguir uma distribuição Exponencial de parâmetro λ, e escrevemos X ∼ Exp(λ), se a sua função densidade probabilidade for dada por: ( f (x) = 0, x ≤ 0; −λx λe , x > 0; λ > 0. A sua função de distribuição é dada por: ( F (x) = 0, x≤0 1 − e−λx , x > 0 33 4.2. DISTRIBUIÇÕES CONTÍNUAS 1.0 Função de distribuição Exponencial 1.0 Função densidade Exponencial 0.6 0.4 0.2 0 1 2 3 0.0 0.0 0.2 0.4 0.6 0.8 λ=1 λ=2 0.8 λ=1 λ=2 4 0 1 x 2 3 4 x Figura 4.5: Função densidade (esquerda) e função de distribuição (direita) de uma v.a. Exp(λ). Proposição 4.26 (Valor médio e Variância). Considere a v.a. X ∼ Exp(λ). Então, E(X) = 1 λ e V (X) = 1 . λ2 Demonstração. Vamos utilizar as propriedades da função Gama para calcular o valor médio. Assim, Z ∞ Z +∞ xλ e xf (x)dx = E(X) = −∞ −λx 0 Z ∞ dx = λ x2−1 e−λx dx = λ 0 De modo análogo se calcula E(X 2 ) e se verifica que V (X) = Γ(2) 1 = . 2 λ λ 1 . λ2 Proposição 4.27 (Relação entre a distribuição Exponencial e Poisson). Considere um acontecimento que ocorre de acordo com um Processo de Poisson de parâmetro λ, por unidade de tempo. Então, o tempo até à primeira ocorrência e o tempo entre duas ocorrências consecutivas tem distribuição Exp(λ). Exemplo 4.28. Admita que o número de avarias de uma fotocopiadora é um processo de Poisson com taxa λ =5/ano. Calcule a probabilidade do tempo entre avarias consecutivas ser inferior a um mês. Resolução: O tempo X entre avarias consecutivas tem distribuição Exp(5). Assim, a probabilidade pedida é: P (X < 1/12) = FX (1/12) = 1 − e−λ/12 = 1 − e−5/12 = 0.3408. Teorema 4.29 (Falta de memória da distribuição exponencial). Seja X ∼ Exp(λ). Então: P (X ≥ x + y|X ≥ y) = P (X ≥ x). 34 CAPÍTULO 4. PRINCIPAIS DISTRIBUIÇÕES 4.2.3 Distribuição Gama A distribuição Gama é uma generalização da distribuição Exponencial. Definição 4.30 (Distribuição Gama). Uma variável aleatória X tem distribuição Gama de parâmetros α > 0 e λ > 0, e escrevemos X ∼ G(α, λ), se a sua função densidade probabilidade for dada por: ( f (x) = x ≤ 0; x > 0; 0, 1 α α−1 Γ(α) λ x e−λx , e a sua função de distribuição é dada por: ( F (x) = 0, Rx 1 α α−1 0 Γ(α) λ t x≤0 e−λt dt, x > 0 Proposição 4.31 (Valor médio e Variância). Considere a v.a. X ∼ G(α, λ). Então, E(X) = α λ e V (X) = α . λ2 Só é possível determinar a função de distribuição se α ∈ N. Considere a v.a. X ∼ G(α, λ), com α ∈ N (neste caso particular a distribuição é também conhecida por distribuição de Erlang). Então a a sua função densidade probabilidade é: ( f (x) = 0, 1 α α−1 (α−1)! λ x e−λx , x ≤ 0; x > 0; e a sua função de distribuição é dada por: F (x) = x≤0 0, −λx 1−e α−1 P i=0 (λx)i i! , x>0 Proposição 4.32 (Distribuição da soma de Exponenciais i.i.d.). Sejam Xi , i = 1, 2, . . . , n variáveis aleatórias independentes com distribuição Exp(λ), então, Sn = n X Xi ∼ G(n, λ). i=1 Exemplo 4.33. Admita que o número de avarias de uma fotocopiadora é um processo de Poisson com taxa λ =5/ano. O tempo Y que decorre até à segunda avaria é uma variável aleatória G(2, 5). A probabilidade da segunda avaria ocorrer após 6 meses é P (Y > 1/2) = 1 − P (Y ≤ 1/2) = 1 − 1 − e−5/2 1 X (5/2)i i=0 i! = e−5/2 × 7 2 = 0.2873 35 4.2. DISTRIBUIÇÕES CONTÍNUAS 4.2.4 Distribuição Normal Definição 4.34 (Distribuição Normal). Uma variável aleatória X diz-se seguir uma distribuição Normal de parâmetros µ e σ 2 , e escrevemos X ∼ N (µ, σ 2 ), se a sua função densidade probabilidade for dada por: f (x) = √ (x−µ)2 1 e− 2σ2 , 2πσ x ∈ R, µ ∈ R, σ > 0. A função de distribuição é dada pelo integral: Z x √ F (x) = −∞ (t−µ)2 1 e− 2σ2 dt, 2πσ para o qual não existe solução analítica. É assim necessário recorrer a métodos numéricos para obter os valores desta função. 1.0 Função de distribuição normal 0.4 Função densidade normal µ=0, σ=1 µ=0, σ=1.5 0.2 −4 −2 0 2 4 0.0 0.0 0.1 0.4 0.2 0.6 0.3 0.8 µ=0, σ=1 µ=0, σ=1.5 x −4 −2 0 2 4 x Figura 4.6: Função densidade (esquerda) e função de distribuição (direita) de uma v.a. N (µ, σ). Observações: • Esta distribuição é também conhecida pelo nome de Gaussiana ou distribuição de Gauss. • Quando µ = 0 e σ = 1, a v.a. toma o nome de Normal reduzida. Neste caso é costume representar por φ e Φ , respectivamente, a função densidade e função de distribuição. • A distribuição Normal é simétrica em torno de µ. Proposição 4.35 (Valor médio e Variância). Seja a v.a. X ∼ N (µ, σ 2 ). Então E(X) = µ e V (X) = σ 2 . Teorema 4.36. Seja X ∼ N (µ, σ 2 ). Resulta que, Z= X −µ ∼ N (0, 1). σ 36 CAPÍTULO 4. PRINCIPAIS DISTRIBUIÇÕES Teorema 4.37. Se X ∼ N (µ, σ 2 ) e a, b são constantes reais, com a 6= 0, então Y = aX + b ∼ N (aµ + b, a2 σ 2 ). Teorema 4.38. Sejam X1 , X2 , . . . , Xn , n variáveis aleatórias independentes com distribuições Xi ∼ N µi , σi2 , i = 1, 2, . . . , n. Considerando as constantes reais a1 , a2 , . . . , an , com algum ai 6= 0, temos que: Y = a1 X1 + . . . + an Xn ∼ N a1 µ1 + . . . + an µn , a21 σ12 + . . . + a2n σn2 . | {z } =µY {z | } 2 =σY Note que: µY σY2 = E(Y ) = E = V (Y ) = V n X i=1 n X n X i=1 n X ai Xi = ai Xi = i=1 4.2.5 ai E (Xi ) = a2i V (Xi ) = n X i=1 n X i=1 a i µi a2i σi2 i=1 Distribuição do Qui Quadrado Definição 4.39 (Distribuição do Qui Quadrado). Uma variável aleatória X diz-se seguir uma distribuição Qui-quadrado com n graus de liberdade, e escrevemos X ∼ χ2n , se a sua função densidade probabilidade for dada por: f (x) = 1 e−x/2 xn/2−1 , Γ(n/2)2n/2 x>0 0, x≤0 , onde Γ representa a função Gama, introduzida em (4.1). 1.0 Função de distribuição do Qui Quadrado 1.0 Função densidade do Qui Quadrado 0.6 0.4 0.2 0 1 2 x 3 4 0.0 0.0 0.2 0.4 0.6 0.8 n=1 n=3 0.8 n=1 n=3 0 1 2 3 4 x Figura 4.7: Função densidade (esquerda) e função de distribuição (direita) de uma v.a. χ2n . 37 4.2. DISTRIBUIÇÕES CONTÍNUAS Proposição 4.40. Considere a v.a. X ∼ χ2n . Então, E(X) = n, e V (X) = 2n. Teorema 4.41. Sejam X1 , X2 , . . . , Xn v.a.’s independentes com distribuição Normal Reduzida. Então, Xi2 ∼ χ21 , e Y = X12 + X22 + . . . + Xn2 ∼ χ2n . 4.2.6 Distribuição t de Student Definição 4.42 (Distribuição t de Student). Uma v.a. T diz-se ter distribuição t de Student com n graus de liberdade, e escreve-se T ∼ tn , se a sua função densidade probabilidade é dada por: Γ f (t) = Γ n 2 n+1 2 √ nπ 1+ t2 − n (n+1) 2 t ∈ R. , 1.0 Função de distribuição 0.4 Função densidade n=1 n=3 0.2 −4 −2 0 2 4 0.0 0.0 0.1 0.4 0.2 0.6 0.3 0.8 n=1 n=3 −4 −2 x 0 2 4 x Figura 4.8: Função densidade (esquerda) e função de distribuição (direita) de uma v.a. tn . Proposição 4.43 (Valor médio e Variância). Seja X ∼ tn . Então, n E(X) = 0, n > 1, e V (X) = , n > 2. n−2 Teorema 4.44. Sejam X ∼ N (0, 1) e Y ∼ χ2n , com X e Y independentes. Então a variável aleatória, X T =p , Y /n tem distribuição t de Student com n graus de liberdade. 38 CAPÍTULO 4. PRINCIPAIS DISTRIBUIÇÕES Capítulo 5 Teorema Limite Central Apresentamos neste capítulo, um dos mais importantes resultados da teoria das probabilidades e da estatística, o Teorema Limite Central. Este teorema dá-nos a distribuição aproximada da soma de n variáveis aleatórias independentes e identicamente distribuídas. Teorema 5.1 (Teorema Limite Central). Seja X1 , X2 . . . , uma sucessão de variáveis aleatórias independentes e identicamente distribuídas (i.i.d.), com valor médio µ e variância σ 2 6= 0, finitos. Considere as variáveis aleatórias Sn e Zn , definidas por Sn = Zn = Pn i=1 Xi Sn − nµ √ . nσ e, (5.1) Então a distribuição de Zn converge para uma distribuição Normal reduzida, quando n → +∞, isto é, Zn = Sn − nµ a √ ∼ N (0, 1). nσ Observação: Se no quociente da equação (5.1), que define Zn , dividirmos tanto o numerador como o denominador por n, obtemos Zn = √ Xn − µ n , σ onde X n representa a média Sn /n. O Teorema Limite Central pode assim também ser enunciado em relação à média das variáveis aleatórias Xi , em vez da soma, Sn . Observação: O Teorema Limite Central não indica nada sobre a velocidade de convergência de Zn para a distribuição N (0, 1). Essa velocidade de convergência depende da distribuição das v.a.’s Xi . Na prática, este teorema usa-se muitas vezes quando n ≥ 30 (embora este valor nem sempre garanta uma boa aproximação). Exemplo 5.2. Num estudo sobre vendas num hipermercado, concluiu-se que a procura diária de arroz (em Kg) é uma v.a. com valor médio 40Kg e desvio-padrão 5Kg. Tendo sido encomendado 14.500Kg de arroz para venda venda no próximo ano, qual a probabilidade deste stock cobrir a procura de arroz nesse período? (Considere-se um ano com 364 dias). 39 40 CAPÍTULO 5. TEOREMA LIMITE CENTRAL Resolução: Seja Xi = procura de arroz no dia i, i = 1, 2, . . . , 364 e admitamos que estas v.a.’s são i.i.d.. Sabemos que: E (Xi ) = 40Kg, V (Xi ) = 25Kg 2 , i = 1, 2, . . . , 364. A procura de arroz durante um ano será S364 = 364 X Xi e queremos calcular P (S364 ≤ 14.500). i=1 Ignoramos qual a distribuição de S364 , mas como se trata de uma soma de um grande número de v.a.’s i.i.d. (364 > 30), então pelo T.L.C., S364 − 364 × 40 S364 − 14.560 a √ = √ ∼ N (0, 1). 364 × 5 364 × 5 Assim, S364 − 14.560 14.500 − 14.560 √ √ ≤ 14.500) = P ≤ ≈ 364 × 5 364 × 5 ≈ P (Z ≤ −0.63) = Φ (−0.63) = 1 − Φ (0.63) = 1 − 0.7357 = 0.2643. P (S364 Conclusão: “É recomendável comprar mais arroz!” Corolário 5.3. Seja X uma v.a. com distribuição Binomial de parâmetros n e p. Se n ≥ 30 e p tal que np > 5 e n(1 − p) > 5, então: a X ∼ N (np, np(1 − p)). Exemplo 5.4. Considere-se a v.a. X ∼ Bin (100, 0.1). Calculemos P (X = 10) Como n = 100 ≥ 30, np = 100 × 0.1 = 10 > 5 e n(1 − p) = 100 × 0.9 = 90, P (X = 10) = P (X ≤ 10) − P (X ≤ 9) ≈ Φ 10−10 3 −Φ 9−10 3 = Φ(0) − Φ(−0.33) = = 0.5 − 0.3707 = 0.1293. Nota: O valor exacto é P (X = 10) = 100 10 90 10 0.1 0.9 = 0.1319. Corolário 5.5. Seja X uma v.a. com distribuição Poisson de parâmetro λ. Se λ > 5, então: a X ∼ N (λ, λ). Exemplo 5.6. Considere X ∼ P (230). Calculemos um valor aproximado de P (X = 241). P (X = 241) = P (X ≤ 241) − P (X ≤ 240) ≈ P Z ≤ 241−230 √ 230 = Φ(0.73) − Φ(0.66) = 0.7673 − 0.7454 = 0.0219 241 Nota: O valor exacto é P (X = 241) = e−230 . 230 241! = 0.0198. −P Z ≤ 240−230 √ 230 = Capítulo 6 Estimação Pontual 6.1 Alguns conceitos importantes Definição 6.1 (População). Uma população consiste em todas as possíveis observações de um dado fenómeno. Definição 6.2 (Amostra). Uma amostra é um subconjunto da população. Observação: Nos métodos estatísticos, que iremos estudar, a amostra recolhida deve ser representativa da população. Caso isso não aconteça, podemos retirar conclusões erradas. É assim conveniente escolher os elementos da amostra de forma aleatória, ou seja, trabalhar com uma amostra aleatória. Definição 6.3 (Amostra aleatória). Vamos admitir que cada valor observado xi é a realização da variável aleatória Xi , com função de distribuição F . O vector (X1 , X2 , . . . , Xn ) constitui uma amostra aleatória se e só se as n variáveis aleatórias são independentes e têm todas a mesma distribuição. Os valores que se obtêm por concretização da amostra aleatória são representados por (x1 , x2 , . . . , xn ). Definição 6.4 (Estatística). Uma estatística é uma qualquer função da amostra aleatória, (X1 , X2 , . . . , Xn ), que não depende de qualquer parâmetro desconhecido. Observação: Da definição anterior, conclui-se que uma estatística é uma variável aleatória. Logo qualquer estatística tem função de distribuição. A essa função de distribuição dá-se o nome de distribuição por amostragem da estatística. Exemplo 6.5 (Estatística). Dada uma amostra aleatória (X1 , X2 , . . . , Xn ), de dimensão n, são estatísticas: A média amostral (X), a variância amostral (S 2 ), o mínimo da amostra, o máximo da amostra, a mediana, os quartis ou a própria amostra. 41 42 CAPÍTULO 6. ESTIMAÇÃO PONTUAL Definição 6.6 (Estimador pontual e estimativa pontual). Seja (X1 , X2 , . . . , Xn ) uma amostra aleatória de dimensão n duma população com função de distribuição F (x|θ), com parâmetro desconhecido θ. A estatística Θ̂ = h(X1 , X2 , . . . , Xn ) é um estimador pontual de θ. Depois da amostra ter sido recolhida, o valor particular de θ̂ = h(x1 , x2 , . . . , xn ), é designado estimativa pontual de θ. Tabela 6.1: Alguns dos parâmetros populacionais que interessam estimar e respectivos estimadores pontuais. Parâmetro Populacional Estimador Pontual Média populacional Média amostral µ X= Variância populacional σ2 S2 = 1 n−1 Xi i=1 n P (Xi − X)2 i=1 Desvio padrão amostral s S= Proporção populacional p 6.2 n P Variância amostral Desvio padrão populacional σ 1 n 1 n−1 n P (Xi − X)2 i=1 Proporção amostral P̂ = X n Propriedades dos estimadores Um dos principais objectivos da Estatística é a estimação de parâmetros desconhecidos, como por exemplo a média da população, a partir de uma amostra. Como muitas vezes temos vários estimadores para o mesmo parâmetro, qual devemos utilizar? É aconselhável a escolha do estimador que melhor satisfaça um critério de eficiência. Para definir o critério de eficiência que iremos utilizar, precisamos das seguintes definições: Definição 6.7 (Estimador centrado e assintoticamente centrado). Um estimador pontual, Θ̂, diz-se centrado para o parâmetro θ se e só se E(Θ̂) = θ. Caso E(Θ̂) 6= θ, o estimador diz-se enviesado. A diferença b(Θ̂) = E(Θ̂) − θ corresponde ao valor do enviesamento ou viés de Θ̂. Se E(Θ̂) 6= θ, e limn→∞ E(Θ̂) = θ, diz-se que o estimador é assintoticamente centrado. 43 6.2. PROPRIEDADES DOS ESTIMADORES Definição 6.8 (Erro Padrão de um estimador). Dado um estimador pontual Θ̂, centrado, define-se o seu erro padrão, SEΘ̂ , por SEΘ̂ = q V (Θ̂). Caso o erro padrão envolva parâmetros desconhecidos, que possam ser estimados a partir dos valores da amostra, a substituição destes valores estimados no erro padrão produz o chamado d . erro padrão estimado, denotado por SE Θ̂ Definição 6.9 (Eficiência). Sejam Θ̂1 e Θ̂2 dois estimador pontuais, centrados para θ. Diz-se que Θ̂1 é mais eficiente que Θ̂2 , se e só se, SEΘ̂1 ≤ SEΘ̂2 . Exemplo 6.10 (Cálculo do erro padrão do estimador da média da população - µ). Seja (X1 , X2 , . . . , Xn ) uma amostra aleatória de uma população com valor médio µ e variância σ 2 . Como, E(X) = E n 1 X n Xi = i=1 n n 1X 1 1X E(Xi ) = µ = nµ = µ, n i=1 n i=1 n concluímos que X é estimador centrado do valor médio da população, µ. Temos ainda, n 1X Xi n i=1 V (X) = V = 1 n2 ou seja, SEX = n X ! 1 = 2V n V (Xi ) = i=1 1 n2 n X i=1 n X ! Xi = (Xi v.a.0 s independentes) i=1 σ2 = 1 σ2 2 nσ = , n2 n σ V (X) = √ . n q O próximo resultado é importante porque indica-nos o limite inferior da variância de um estimador centrado. Um estimador com variância igual ao valor mínimo é mais eficiente do que qualquer outro estimador centrado. Definição 6.11 (Limite inferior de Cramér-Rao). Seja (X1 , X2 , . . . , Xn ) uma amostra aleatória retirada de uma população com função densidade f (x|θ) (ou função de probabilidade P (X|θ)), satisfazendo as condições de regularidade (f duas vezes diferenciável e com suporte independente de θ). Dado um estimador pontual Θ̂, centrado para θ, V (Θ̂) ≥ 1 , nI(θ) com I(θ) = −E ∂ 2 ln f (X|θ) ∂θ2 . 44 CAPÍTULO 6. ESTIMAÇÃO PONTUAL Exemplo 6.12 (Limite inferior de Cramér-Rao do modelo Poisson). Seja (X1 , X2 , . . . , Xn ) uma amostra aleatória retirada de uma população com distribuição Poisson de parâmetro λ. Como ln[P (X|λ)] = −λ + X ln λ − ln(X!), resulta que ∂ ln P (X|λ) X = −1 + ; ∂λ λ ∂ 2 ln P (X|λ) 1 = − 2. 2 ∂λ λ e Logo, I(λ) = −E ∂ 2 ln P (X|λ) ∂λ2 Conclui-se assim que, V (λ̂) ≥ 1 . λ2 = 1 nI(λ) = nλ , para qualquer estimador λ̂, centrado para λ. Definição 6.13 (Estimador consistente). Um estimador pontual Θ̂, centrado para θ, diz-se consistente se lim V (Θ̂) = 0. n→∞ Exemplo 6.14 (Consistência da Média amostral). Seja (X1 , X2 , . . . , Xn ) uma amostra aleatória de uma população com valor médio µ e variância σ 2 . Sabemos que X é estimador centrado do σ2 n . valor médio da população, µ e V (X) = lim V (Θ̂) = n→∞ Como , σ2 = 0, n concluímos que X é consistente para µ. 6.3 Método dos Momentos Definição 6.15 (Método dos Momentos). Seja (X1 , X2 , . . . , Xn ) uma amostra aleatória, retirada de uma população cuja distribuição depende de k parâmetros desconhecidos, θ1 , θ2 , . . . , θk . O método dos momentos consiste em utilizar os momentos da amostra para estimar os respectivos momentos da população, e consequentemente os parâmetros desconhecidos. Os estimadores de momentos, θ̂1 , θ̂2 , . . . , θ̂k , são os que resultam da resolução do sistema de k equações a k incógnitas, m1 = M1 m2 = M2 m3 = M3 .. . m k mj = E(X j ) onde Mj = 1 n n P i=1 Xij (m1 = E(X)) (M1 = X) = Mk Observação: Caso alguma das k equações não contenha qualquer informação sobre os parâmetros, essa equação deve ser substituída pela equação µj = Mj , com j > k. 45 6.3. MÉTODO DOS MOMENTOS Inconvenientes: 1. Por vezes não existe uma escolha unívoca; 2. Por vezes a solução é inadmissível; Exemplo 6.16 (Estimador dos momentos do parâmetro λ, do modelo Poisson). Considere uma população com distribuição P (λ). O estimador dos momentos de λ é a solução da equação: ⇔ E(X) = X λ = X. O estimador dos momentos de λ é, λ̂ = X. Exemplo 6.17 (Estimador dos momentos de σ 2 do modelo N (0, σ 2 )). Seja (X1 , X2 , . . . , Xn ) uma amostra aleatória, retirada de uma população com distribuição Normal de valor médio 0 (conhecido) e variância σ 2 (desconhecida). A solução da primeira equação é: ⇔ E(X) = X 0 = X. Contudo, como esta primeira equação não contém o parâmetro que interessa estimar, devemos considerar a segunda equação: E(X 2 ) = M2 E(X 2 ) = V (X) + E 2 (X) = M2 ⇔ O estimador dos momentos de σ 2 é, σ̂ 2 = n X2 P i i=1 n ⇔ σ 2 = M2 . . Exemplo 6.18 (Estimadores dos momentos dos parâmetro a e b, do modelo Uniforme). Considere uma população com distribuição U (a, b). Os estimadores dos momentos de a e b são os que resultam da resolução do sistema de equações: ( E(X) = X m2 = M2 ⇔ a+b 2 =X 2 2 (b−a) + a+b = M2 12 2 q a = X − 3(M − X 2 ) 2 q ⇔ , 2 b=X+ ou seja os estimadores dos momentos de a e b são, â = X − q 2 3(M2 − X ) e b̂ = X + q 2 3(M2 − X ); 3(M2 − X ) 46 CAPÍTULO 6. ESTIMAÇÃO PONTUAL 6.4 Método da máxima verosimilhança Este método é um pouco mais complicado que o anterior. Contudo, os estimadores obtidos por este método têm melhores propriedades teóricas. O método é apresentado apenas para populações cuja distribuição tem apenas um parâmetro desconhecido. Seja (X1 , X2 , . . . , Xn ) uma amostra aleatória, isto é, um conjunto de n v.a.’s i.i.d. com função densidade comum f (x|θ) onde θ é um parâmetro desconhecido. A função densidade conjunta da amostra aleatória é f (x1 , x2 , . . . , xn |θ) = n Y f (xi |θ). i=1 Observação: Caso a população tenha distribuição discreta, devemos substituir a função densidade pela função de probabilidade. Definição 6.19 (Função de verosimilhança e log-verosimilhança). Depois da amostra ser observada, os valores x1 , x2 , . . . , xn são conhecidos e podemos considerar que a função anterior depende apenas de θ. Esta função é designada função de verosimilhança e costuma representar-se por: L(θ) = L(θ|x1 , x2 , . . . , xn ) = n Y f (xi |θ). i=1 É geralmente mais fácil trabalhar com a função log-verosimilhança, isto é, com o logaritmo da função verosimilhança: l(θ) = ln L(θ) = n X ln f (xi |θ). i=1 Exemplo 6.20 (Função log-verosimilhança do modelo de Poisson(λ)). Considere uma população com distribuição Poisson com parâmetro desconhecido λ. Então, observada a amostra (x1 , x2 , . . . , xn ), e admitindo que xi ∈ N0 , i = 1, 2 . . . , n, a função log-verosimilhança é: l(λ) = ln L(λ) = n X i=1 ln e −λ λ xi xi ! = −nλ + n X i=1 ! xi ln λ − n X ln(xi !). i=1 Definição 6.21 (Método da máxima verosimilhança:). O estimador de máxima verosimilhança de θ é obtido por maximização da função verosimilhança, ou equivalentemente da função logverosimilhança, com respeito a θ. O estimador de máxima verosimilhança é denotado por θ̂M LE , mas para simplificação da notação representa-se apenas por θ̂. Então: max l(θ) = l(θ̂) θ 47 6.5. DISTRIBUIÇÕES POR AMOSTRAGEM Se L(θ), ou equivalentemente l(θ), é regular (duas vezes diferenciável e com suporte independente de θ) o máximo é obtido por derivação, isto é, é obtido através da resolução de: ∂ l(θ) = 0, ∂θ e ∂ 2 l(θ) < 0. ∂θ2 Exemplo 6.22 (Estimador de máxima verosimilhança do parâmetro do modelo de Poisson). Considere a função log-verosimilhança do exemplo 6.20. Como l(λ) é regular, o estimador de máxima verosimilhança é a solução da equação ∂l(λ) =0 ∂λ ⇔ −n + n 1X xi = 0 λ i=1 ⇔ λ= n X xi /n, i=1 isto é, o estimador de máxima verosimilhança de λ é λ̂ = X. Propriedades dos estimadores de máxima verosimilhança 1. Os estimadores de máxima verosimilhança são assintoticamente centrados, isto é, lim E(θ̂) = θ; n→∞ 2. Os estimadores de máxima verosimilhança são consistentes; 3. Em condições gerais de regularidade, o estimador de máxima verosimilhança de θ 1 ; tem distribuição assintoticamente normal de valor médio θ e variância nI(θ) 4. A propriedade da invariância é válida para qualquer estimador de máxima verosimilhança, isto é, se θ̂ é um estimador de máxima verosimilhança de θ e se β = g(θ) é uma função biunívoca de θ, então o estimador de máxima verosimilhança de β é β̂ = g(θ̂); 6.5 Distribuições por Amostragem Nesta secção vamos estudar a distribuição por amostragem dos estimadores pontuais da Tabela 6.1. 6.5.1 Distribuição por amostragem da média amostral, X Suponhamos que foi seleccionada uma amostra aleatória de dimensão n, (X1 , X2 , . . . , Xn ), de uma população de média µ e variância σ 2 . A distribuição por amostragem de X pode ser obtida sob diversas condições: 48 CAPÍTULO 6. ESTIMAÇÃO PONTUAL 1. Suponhamos a população tem distribuição Normal e que o valor da variância da população é conhecido. Consequentemente, tendo em conta as propriedades da distribuição normal, X ∼ N (µ, σ 2 /n), ou seja, Z= X −µ √ ∼ N (0, 1). σ/ n (6.1) 2. Suponhamos a população tem distribuição Normal e que o valor da variância da população é desconhecido. Vamos aqui usar S 2 para estimar σ 2 . Nestas condições, Z= X −µ √ ∼ N (0, 1) σ/ n e (n − 1)S 2 ∼ χ2n−1 . σ2 Como a população tem distribuição Normal, podemos assegurar que Z e S 2 são v.a. independentes (demonstração fora do âmbito desta disciplina). Pelo Teorema 4.44, X−µ √ X −µ σ/ n √ =r T = ∼ tn−1 . S/ n (n−1)S 2 /σ 2 (6.2) (n−1) 3. Suponhamos que a população tem distribuição não-Normal e que o valor da variância da população é conhecida, mas a dimensão da amostra, n, é superior ou igual a 30. Neste caso, a distribuição por amostragem da média amostral pode ser aproximada pela distribuição Normal reduzida, justificado através do Teorema Limite Central: Z= X −µ a √ ∼ N (0, 1). σ/ n (6.3) 4. Finalmente, consideremos que seleccionámos uma amostra aleatória de uma população com distribuição não-Normal, com variância da população desconhecida e que temos um tamanho de amostra n superior ou igual a 30. Tal como no caso anterior, Z= X −µ a √ ∼ N (0, 1). σ/ n Como σ 2 não é conhecido, mas a dimensão da amostra é grande então S ' σ, e podemos substituir, na expressão anterior, σ por S (desvio padrão), isto é, Z= X −µ a √ ∼ N (0, 1). S/ n Observação: Os resultados das equações (6.3) e (6.4) são válidos para qualquer população. Contudo, o modelo Normal é excluído porque conhecemos a distribuição exacta da média amostral: equações (6.1) e (6.2). (6.4) 49 6.5. DISTRIBUIÇÕES POR AMOSTRAGEM 6.5.2 Distribuição por amostragem da diferença de médias amostrais, X 1 − X 2 Aqui consideramos apenas um de muitos casos possíveis. Supondo que foram seleccionadas, de forma independente, duas amostras aleatórias de dimensões n1 e n2 , respectivamente, de duas populações Normais independentes com variâncias conhecidas dadas, respectivamente, por σ12 e σ22 . Sejam X 1 e X 2 as médias das duas amostras aleatórias. Neste contexto, a distribuição por amostragem de X 1 − X 2 é ainda Normal, por ser a combinação linear de variáveis aleatórias normais independentes: Z= 6.5.3 (X 1 − X 2 ) − (µ1 − µ2 ) r σ12 n1 + ∼ N (0, 1). σ22 n2 Distribuição por amostragem da variância amostral, S 2 Suponhamos que foi seleccionada uma amostra aleatória de dimensão n, (X1 , X2 , . . . , Xn ), de uma população Normal de média µ, desconhecida, e variância σ 2 . Neste contexto, a distribuição por amostragem de S 2 = X2 = 6.5.4 1 n−1 Pn i=1 Xi − X 2 é dada por: (n − 1)S 2 ∼ χ2n−1 . σ2 Distribuição por amostragem da proporção, P̂ Admita que os elementos de determinada população possuem uma dada característica, com uma certa probabilidade p desconhecida, independentemente uns dos outros. Suponhamos que se selecciona uma amostra aleatória de n elementos desta população. Se X denotar o número de elementos da amostra aleatória que possuem a referida característica, sabemos que X ∼ Bin(n, p). Se o tamanho da amostra for suficientemente grande, o Teorema Limite Central justifica que: X − np a ∼ N (0, 1). Z=p np(1 − p) Como p pode ser estimado pontualmente pela proporção de elementos da amostra possuem a referida característica, P̂ = Z=p X n, a distribuição por amostragem aproximada de P̂ é P̂ − p a ∼ N (0, 1). p(1 − p)/n 50 CAPÍTULO 6. ESTIMAÇÃO PONTUAL Tabela 6.2: Distribuições por amostragem Estimador População σ 2 conhecida Distribuição X−µ √ σ/ n Z= Normal de média µ σ 2 desconhecida T = X X−µ √ S/ n ∼ tn−1 Pop. não-Normal σ 2 conhecida Z= a X−µ √ ∼ σ/ n N (0, 1) de média µ e n ≥ 30 σ 2 desconhecida Z= a X−µ √ ∼ S/ n N (0, 1) Z= (X 1−X q 2 )−(µ1−µ2 ) 2 Populações independentes, X 1 −X 2 ∼ N (0, 1) σ2 σ2 1+ 2 n1 n2 N (µ1 , σ12 ) e N (µ2 , σ22 ), com σ12 e σ22 conhecidas P̂ Qualquer população e n grande S2 Normal de média µ desconhecida ∼ N (0, 1) Z=√ a P̂ −p ∼ p(1−p)/n X2 = (n−1)S 2 σ2 N (0, 1) ∼ χ2n−1 Capítulo 7 Estimação por Intervalo de Confiança A indicação de um único valor como estimativa, de um parâmetro θ, não nos dá informação sobre a precisão desse valor. Por isso, em muitas situações, interessa-nos dar uma medida desse erro. Assim, em vez de se indicar a sua estimativa pontual, é preferível indicar que o parâmetro a estimar estará provavelmente no intervalo ]t1 , t2 [, onde os extremos t1 e t2 dependem do valor da estimativa pontual desse parâmetro. Definição 7.1 (Intervalo Aleatório). Seja (X1 , X2 , . . . , Xn ) uma amostra aleatória de uma população com função de distribuição F . Considere as estatísticas T1 (X1 , X2 , . . . , Xn ) e T2 = (X1 , X2 , . . . , Xn ), tais que P (T1 < θ < T2 ) = 1 − α, onde α ∈]0, 1[ não depende de θ. Então ]T1 , T2 [ é um intervalo aleatório para θ. Definição 7.2 (Intervalo de Confiança). Seja (x1 , x2 , . . . , xn ) uma realização da amostra aleatória e sejam t1 = T1 (x1 , x2 , . . . , xn ) e t2 = T2 (x1 , x2 , . . . , xn ), os valores das estatísticas T1 e T2 (introduzidas na Definição 7.1). Ao intervalo ]t1 , t2 [ chamamos intervalo de confiança (1 − α) × 100% para θ. O valor (1 − α) representa o nível (ou coeficiente) de confiança do intervalo e α o nível de significância. Normalmente são usados níveis de confiança superiores a 90%. Observações: • Diferentes amostras produzirão eventuais valores distintos θ̂ e consequentemente diferentes extremos t1 e t2 . • Os valores t1 e t2 são denominados limites de confiança inferior e superior, respectivamente. 51 52 CAPÍTULO 7. ESTIMAÇÃO POR INTERVALO DE CONFIANÇA • A amplitude de um intervalo de confiança, t2 − t1 , é uma importante medida da qualidade da informação fornecida através da amostra. Definição 7.3 (Variável Pivot ou Fulcral). Seja (X1 , X2 , . . . , Xn ) uma amostra aleatória, retirada de uma população com função de distribuição F de parâmetro θ. A função T (X1 , X2 , . . . , Xn ) é uma variável pivot, ou fulcral, se a sua distribuição for independente de θ. Observação: As variáveis aleatórias Z, T e X 2 , apresentadas na Tabela 6.2, são variáveis Pivot. Definição 7.4 (Método de determinação de um Intervalo de Confiança a partir de uma variável Pivot). Seja (X1 , X2 , . . . , Xn ) uma amostra aleatória, retirada de uma população com função de distribuição F , com parâmetro θ, e seja T uma variável Pivot. • Dado o nível de confiança (1 − α), é necessário determinar os valores c1 e c2 tais que P (c1 < T < c2 ) = 1 − α. • Caso se verifique, c1 < T < c2 ⇔ T1 (X1 , X2 , . . . , Xn ) < θ < T2 (X1 , X2 , . . . , Xn ), então também se pode garantir que P (T1 (X1 , X2 , . . . , Xn ) < θ < T2 (X1 , X2 , . . . , Xn )) = 1 − α. Logo, o intervalo aleatório para θ é ]T1 (X1 , X2 , . . . , Xn ), T2 (X1 , X2 , . . . , Xn )[ = ]T1 , T2 [. • Observada a amostra (x1 , x2 , . . . , xn ), o intervalo de confiança para θ é dado por ]t1 , t2 [, onde t1 = T1 (x1 , x2 , . . . , xn ) e t2 = T2 (x1 , x2 , . . . , xn ). 7.1 7.1.1 Intervalo de Confiança para a média da população, µ População Normal com variância conhecida Suponhamos que seleccionámos uma amostra aleatória (X1 , X2 , . . . , Xn ) de uma população Normal, de variância σ 2 conhecida, com a qual pretendemos construir um intervalo de confiança (1 − α) × 100% para µ. • Escolha da estatística pivot: Z= X −µ √ ∼ N (0, 1); σ/ n 7.1. INTERVALO DE CONFIANÇA PARA A MÉDIA DA POPULAÇÃO, µ 53 • Determinação de c1 e c2 : Seja za um valor tal que P (Z > za ) = a. Escolhemos c1 = z1−α/2 = −zα/2 e c2 = zα/2 , como indicado na Figura 7.1. Esta escolha não é casual. Quando c1 = −c2 obtemos o intervalo de menor amplitude. O valor zα/2 é obtido através da resolução da equação: P −zα/2 < Z < zα/2 = 1 − α ⇔ P (Z < zα/2 ) − P (Z ≤ −zα/2 ) = 1 − α ⇔ (7.1) 0.2 0.3 0.4 Φ(zα/2 ) − Φ(−zα/2 ) = 1 − α ⇔ Φ(zα/2 ) = 1 − α/2 ⇔ zα/2 = Φ−1 (1 − α/2) 0.0 0.1 1−α − zα 2 0 zα 2 Figura 7.1: Intervalo aleatório da variável pivot Z. • Determinação dos extremos do intervalo aleatório: X −µ σ σ √ < zα/2 ⇔ −zα/2 √ < X − µ < zα/2 √ σ/ n n n σ σ σ σ √ − X < −µ < zα/2 √ − X ⇔ X − zα/2 √ < µ < X + zα/2 √ n n n n − zα/2 < ⇔ − zα/2 Logo, σ σ P − zα/2 < Z < zα/2 = P X − zα/2 √ < µ < X + zα/2 √ = 1 − α. n n • Assim, tendo uma amostra concreta (x1 , x2 , . . . , xn ), o intervalo de confiança (1 − α) × 100 para µ é: i σ σ h IC(1−α)×100% (µ) ≡ x − zα/2 √ ; x + zα/2 √ . n n Exemplo 7.5. Considere a população do peso das formigas Solenopsis, medido em décimas de grama, que sabemos ter distribuição Normal com média µ e variância σ 2 = 22 , X ∼ N (µ, 22 ). Desta população observámos a amostra de 4 pesos, (8, 13, 9, 8.5), a qual usámos para obter uma 54 CAPÍTULO 7. ESTIMAÇÃO POR INTERVALO DE CONFIANÇA estimativa de µ, x = 9.625dg. Queremos agora determinar limites inferior e superior de um intervalo de confiança a 95% para µ. Resolução: Seja X a média amostral da amostra de dimensão 4, (X1 , X2 , X3 , X4 ). Como a população tem distribuição Normal, e a variância é conhecida, vamos considerar a estatística pivot Z= X−µ √ , σ/ n Z= cuja distribuição por amostragem foi obtida no capítulo anterior: X −µ X −µ √ ∼ N (0, 1). √ = σ/ n 2/ 4 0.2 0.3 0.4 Seja z0.025 um valor tal que P (−z0.025 < Z < z0.025 ) = 0.95, conforme a Figura 7.2 ilustra. Para 0.0 0.1 0.95 − z0.025 0 z0.025 Figura 7.2: Intervalo aleatório da variável pivot Z. determinar o valor de z0.025 , é necessário efectuar os seguintes cálculos: P (−z0.025 < Z < z0.025 ) = 0.95 ⇔ P (Z < z0.025 ) − P (Z ≤ −z0.025 ) = 0.95 ⇔ Φ(z0.025 ) − Φ(−z0.025 ) = 0.95 ⇔ Φ(z0.025 ) = 0.975 ⇔ z0.025 = Φ−1 (0.975) ≈ 1.96 Assim, ! P (−1.96 < Z < 1.96) = 0.95 ⇔ P X −µ √ < 1.96 −1.96 < 2/ 4 = 0.95 ⇔ P −1.96 × 1 < X − µ < 1.96 × 1 = 0.95 ⇔ P −X − 1.96 < −µ < −X + 1.96 = 0.95 ⇔ P X − 1.96 < µ < X + 1.96 = 0.95 i h Logo, o intervalo aleatório, para µ, com 95% de confiança é X − 1.96; X + 1.96 . Concretizando este intervalo para a amostra observada, (x1 , x2 , x3 , x4 ) = (8, 13, 9, 8.5), obtemos o intervalo de confiança a 95% para µ: IC95% (µ) = ]x − 1.96 ; x + 1.96[ = ]9.625 − 1.96 ; 9.625 + 1.96[ =]7.665 ; 11.585[. 7.1. INTERVALO DE CONFIANÇA PARA A MÉDIA DA POPULAÇÃO, µ 55 Observação: Vejamos agora o que sucede aumentando a confiança do intervalo para 99%. Como Z0.005 ≈ 2.58, X−µ √ < 2.58 = 0.99 ⇔ P (−Z0.005 < Z < Z0.005 ) = 0.99 ⇔ P −2.58 < 2/ 4 √ √ P X − 2.58 × 2/ 4 < µ < X + 2.58 × 2/ 4 = 0.99 Assim, IC99% (µ) = ]x − 2.58; x + 2.58[=]9.625 − 2.58; 9.625 + 2.58 =]7.045; 12.205[. Concluímos que quando aumentamos o nível de confiança, também aumentamos a sua amplitude! 7.1.2 População Normal com variância desconhecida Seja (X1 , X2 , . . . , Xn ) uma amostra aleatória de uma população Normal(µ, σ 2 ), de variância σ 2 desconhecida, com a qual pretendemos construir um intervalo de confiança (1 − α) × 100% para µ: • Escolha da estatística pivot: T = X −µ √ ∼ tn−1 . S/ n • Para um nível de confiança de (1−α)×100%, escolhemos de c1 = −tn−1,α/2 e c2 = tn−1,α/2 , como indicado na Figura 7.3. 0.0 1−α − tn−−1::α 2 0 tn−−1::α 2 Figura 7.3: Intervalo aleatório da variável pivot T . 56 CAPÍTULO 7. ESTIMAÇÃO POR INTERVALO DE CONFIANÇA • Determinação dos extremos do intervalo aleatório: − tn−1,α/2 < X −µ √ < tn−1,α/2 ⇔ S/ n S S ⇔ − tn−1,α/2 √ < X − µ < tn−1,α/2 √ ⇔ n n S S ⇔ − tn−1,α/2 √ − X < −µ < tn−1,α/2 √ − X ⇔ n n S S ⇔ X − tn−1,α/2 √ < µ < X + tn−1,α/2 √ n n • Assim, obtemos o seguinte intervalo de confiança (1 − α) × 100% para µ: i s s h IC(1−α)×100% (µ) ≡ x − tn−1,α/2 √ ; x + tn−1,α/2 √ . n n 7.1.3 População não-Normal com variância conhecida e n > 30 Supondo que seleccionámos uma amostra aleatória de dimensão n > 30, (X1 , X2 , . . . , Xn ), de uma população não-normal com média µ e variância conhecida σ 2 , e com a qual pretendemos construir um intervalo de confiança (1 − α) × 100% para µ: • Escolha da estatística pivot: Z = X−µ √ σ/ n a ∼ N (0, 1). • Determinação de c1 e c2 : De modo análogo, ao efectuado na página 53, escolhemos: c1 = −zα/2 e c2 = zα/2 , com zα/2 = Φ−1 (1 − α/2). • Repetido as contas efectuadas na sub-secção 7.1.1, obtemos: σ σ = 1 − α. P − zα/2 < Z < zα/2 = P X − zα/2 √ < µ < X + zα/2 √ n n • Assim, observada a amostra (x1 , x2 , . . . , xn ), obtemos o seguinte intervalo de confiança (1 − α) × 100% para µ: i σ σ h IC(1−α)×100% (µ) ≡ x − zα/2 √ ; x + zα/2 √ . n n 7.1.4 População não-Normal com variância desconhecida e n > 30 Admitindo que seleccionámos uma amostra aleatória de dimensão n > 30, (X1 , X2 , . . . , Xn ), de uma população com distribuição não-normal, com média µ e variância σ 2 , ambos desconhecidos. Pretendemos um intervalo de confiança (1 − α) × 100% para µ. Como usamos a estatística pivot: Z= X −µ a √ ∼ N (0, 1), S/ n 57 7.1. INTERVALO DE CONFIANÇA PARA A MÉDIA DA POPULAÇÃO, µ a determinação do intervalo de confiança para µ é feita de forma análoga ao caso anterior (substituindo σ por S). Obtemos assim, o seguinte intervalo de confiança (aproximado) (1 − α) × 100% para µ: i s s h IC(1−α)×100% (µ) ≡ x − zα/2 √ ; x + zα/2 √ . n n Exemplo 7.6 (Exame de P.E. D - 2005/06). Queremos estudar há quanto tempo residem nas suas moradas actuais as pessoas de certa cidade na província. Uma amostra aleatória de 41 famílias revelou uma média de 35 meses de residência e um desvio padrão de 6.3 meses. a) Qual a sua melhor estimativa do tempo médio de residência da população desta cidade? b) Deduza um intervalo de confiança a 98% para o verdadeiro tempo médio de residência. Justifique o seu procedimento. Resolução: a) Para estimar a média da população vamos usar o estimador média da amostra, X. Trata-se do estimador da média que possui duas propriedades importantes: é centrado para µ e consistente. Neste exercício, a estimativa do tempo médio de residência da população é x = 35 meses. b) Para deduzir o intervalo de confiança, vamos admitir que (X1 , X2 . . . , Xn ) é uma amostra aleatória com n > 30. Vamos considerar a estatística pivot Z = X−µ √ , S/ n deduzida no capítulo anterior, isto é, 0.2 0.3 0.4 X −µ a √ ∼ N (0, 1). S/ n 0.1 0.98 0.0 Z= − 2.32 0 2.32 Figura 7.4: Intervalo aleatório da variável pivot Z. cuja distribuição foi 58 CAPÍTULO 7. ESTIMAÇÃO POR INTERVALO DE CONFIANÇA Como P (−z0.01 < Z < z0.01 ) = 0.98, onde z0.01 ≈ 2.32, como indicado na Figura 7.4, e − z0.01 < Z < z0.01 ⇔ 2.32 < X−µ √ S/ n < 2.32 ⇔ 2.32 √Sn < X − µ < 2.32 √Sn ⇔ S S ⇔ X − 2.32 √ < µ < X + 2.32 √ , n n resulta que S S = 0.98. P X − 2.32 √ < µ < X + 2.32 √ n n Logo o intervalo com 98% de confiança para o valor médio da população é i s s h IC98% (µ) ≡ x − 2.32 √ ; x + 2.32 √ . n n Como da amostra recolhida resultou x = 35 e s = 6.3, o intervalo com 98% de confiança para o valor médio da população é i 6.3 6.3 h IC98% (µ) ≡ 35 − 2.32 √ ; 35 + 2.32 √ = ]32.72 , 37.28[. 41 41 7.2 Intervalo de Confiança para a variância populacional, σ 2 , e para o desvio padrão populacional, σ Nesta secção, vamos deduzir um intervalo de confiança (1 − α) × 100% para a variância da população. Consideramos o caso em que temos uma amostra aleatória (X1 , X2 , . . . , Xn ) de uma população com distribuição Normal(µ, σ 2 ), com valor médio µ desconhecido. • Vamos usar a estatística pivot cuja distribuição por amostragem foi apresentada no capítulo anterior, isto é, a estatística pivot: X 2 = (n−1)S 2 σ2 ∼ χ2n−1 ; • Para um nível de confiança de (1 − α) × 100%, escolha de c1 e c2 : A escolha dos extremos do intervalo aleatório, c1 = χ2n−1,1−α/2 e c2 = χ2n−1,α/2 , é feita de acordo com a Figura 7.5. Para determinar estes valores é necessário efectuar as operações: α α ⇔ c1 = Fχ−1 , 2 n−1 2 2 α α α −1 2 2 P (X > c2 ) = ⇔ P (X ≤ c2 ) = 1 − ⇔ c2 = Fχ2 1− , n−1 2 2 2 P (X 2 < c1 ) = onde Fχ−1 2 n−1 α 2 Qui Quadrado. e Fχ−1 2 n−1 1− α 2 podem ser obtidos numa tabela de quantis da distribuição 7.2. INTERVALO DE CONFIANÇA PARA A VARIÂNCIA POPULACIONAL, σ 2 , E PARA O DESVIO PADRÃO POPULACIONAL, σ 59 1−α α 2 0.0 α 2 χ2n−−1::1−−α 2 0 χ2n−−1::α 2 Figura 7.5: Intervalo aleatório da variável pivot X 2 . • Determinação dos extremos do intervalo de confiança: Como, χ2n−1,1−α/2 2 <X < χ2n−1,α/2 χ2n−1,1−α/2 ⇔ (n − 1)S 2 χ2n−1,α/2 1 < 2 < ⇔ σ (n − 1)S 2 (n − 1)S 2 (n − 1)S 2 2 < σ < , χ2n−1,α/2 χ2n−1,1−α/2 concluímos que P χ2n−1,1−α/2 < X 2 < χ2n−1,α/2 = P (n − 1)S 2 χ2n−1,α/2 < σ2 < (n − 1)S 2 = 1 − α. χ2n−1,1−α/2 • Assim, observada a amostra (x1 , x2 , . . . , xn ), e calculada a respectiva variância amostral, s2 , o intervalo de confiança para σ 2 é: # " (n − 1)s2 (n − 1)s2 IC(1−α)×100% (σ ) = ; . χ2n−1,α/2 χ2n−1,1−α/2 2 Observação: Como P (n − 1)S 2 χ2n−1,α/2 v u v u u (n − 1)S 2 u (n − 1)S 2 (n − 1)S 2 < σ2 < 2 =P t 2 <σ<t 2 = 1 − α. χn−1,1−α/2 χn−1,α/2 χn−1,1−α/2 podemos assim apresentar o seguinte intervalo de confiança para σ: v u u (n − 1)s2 IC(1−α)×100% (σ) ≡ t 2 ; χn−1,α/2 v u u (n − 1)s2 . t 2 χn−1,1−α/2 60 CAPÍTULO 7. ESTIMAÇÃO POR INTERVALO DE CONFIANÇA 7.3 Intervalo de Confiança para proporção populacional, p Vamos deduzir nesta secção um intervalo de confiança (1 − α) × 100% para a proporção populacional p. Consideramos a situação em que estamos interessados em estimar a proporção dos elementos que, na população, possuem determinada característica, através da correspondente proporção amostral P̂ , referente a uma amostra de dimensão suficientemente grande. Podemos assim usar a seguinte estatística pivot, cuja distribuição por amostragem foi considerada no capítulo anterior: • Escolha da estatística pivot: Z=p P̂ − p a ∼ N (0, 1); p(1 − p)/n • Para um nível de confiança de (1 − α) × 100%, escolhemos c1 = −zα/2 e c2 = zα/2 tais que P (−zα/2 < Z < zα/2 ) = 1 − α. De acordo com os cálculos apresentados na página 53, z1−α/2 = Φ−1 (1 − α/2). • Determinação dos extremos do intervalo aleatório: P̂ − p < zα/2 −zα/2 < Z < zα/2 ⇔ −zα/2 < p p(1 − p)/n (7.2) A resolução das inequações anteriores, em ordem q a p, torna-se muito mais simples se substituirmos p p(1 − p)/n, pela sua estimativa, P̂ (1 − P̂ )/n. Se a dimensão da amostra for elevada esta substituição não deverá afectar muito a precisão do intervalo. Assim, efectuando a substituição, − zα/2 < √ − zα/2 − zα/2 q q P̂ − zα/2 P̂ −p P̂ (1−P̂ )/n < zα/2 ⇔ P̂ (1 − P̂ )/n < P̂ − p < zα/2 q P̂ (1 − P̂ )/n − P̂ < −p < zα/2 q P̂ (1 − P̂ )/n < p < P̂ + zα/2 P̂ (1 − P̂ )/n ⇔ q P̂ (1 − P̂ )/n − P̂ ⇔ q P̂ (1 − P̂ )/n Então, −zα/2 P P̂ − p < zα/2 <p p(1 − p)/n P P̂ − zα/2 q ! ' P̂ (1 − P̂ )/n < p < P̂ + zα/2 q P̂ (1 − P̂ )/n ' 1 − α • Assim, observada a amostra e calculada a respectiva proporção p̂, obtemos o seguinte intervalo de confiança aproximado: IC(1−α)×100% (p) = p̂ − zα/2 q p̂(1 − p̂)/n ; p̂ + zα/2 q p̂(1 − p̂)/n . 61 7.3. INTERVALO DE CONFIANÇA PARA PROPORÇÃO POPULACIONAL, P Exemplo 7.7. Num inquérito destinado a estimar a proporção p da população que tem TV por cabo, foram inquiridas 200 pessoas, das quais 78 afirmaram ter este serviço. Temos a estimativa pontual da proporção da população com TV por cabo p̂ = 0.39. Como n = 200 > 30 e z0.05 = 1.96, o intervalo de 95% de confiança para a proporção p é: q 0.39 − 1.96 0.39(1 − 0.39)/200 ; 0.39 + 1.96 q 0.39(1 − 0.39)/200 =]0.322 , 0.458[. Observação: Tal como já foi referido, também é possível resolverqas inequações em (7.2) em ordem a p sem a substituição de p p(1 − p)/n, pela sua estimativa, P̂ (1 − P̂ )/n. Esta resolução, embora tenha muito mais cálculos, conduz-nos à inequação: 1+ 2 zα/2 n p2 − 2P̂ + 2 zα/2 n p + P̂ 2 < 0, Os extremos Inferior e superior do intervalo de confiança são, respectivamente: 2 P̂ + zα/2 /n − zα/2 q 2 /(4n2 ) P̂ (1 − P̂ )/n + zα/2 2 /n 1 + zα/2 , 2 P̂ + zα/2 /n + zα/2 q 2 /(4n2 ) P̂ (1 − P̂ )/n + zα/2 2 /n 1 + zα/2 . Como ilustração, apresentamos o intervalo de confiança a 95% para a a proporção p, do Exemplo 7.7: IC95% (p) =]0.325 , 0.459[. 62 CAPÍTULO 7. ESTIMAÇÃO POR INTERVALO DE CONFIANÇA Capítulo 8 Teste de Hipóteses 8.1 Introdução Vamos começar por introduzir alguns conceitos importantes e alguma notação. Definição 8.1 (Hipótese Estatística). Uma hipótese estatística é uma conjectura acerca da distribuição de uma ou mais variáveis aleatórias. Para cada hipótese que se faça, designada por hipótese nula e denotada por H0 , há sempre outra hipótese, designada por hipótese alternativa e denotada por H1 . Se a hipótese estatística H0 especifica completamente a distribuição é chamada de hipótese simples. Caso contrário é chamada de hipótese composta. Uma hipótese estatística pode ser, ou não ser, verdadeira. A verdade ou falsidade nunca pode ser confirmada, a menos que observássemos toda a população, o que nalguns casos é impraticável (quando a população é muito grande) ou até mesmo impossível (no caso de populações infinitas, ou quando característica em estudo leva à destruição dos elementos observados). Exemplo 8.2 (Hipótese Estatística). Seja (X1 , X2 , . . . , Xn ) uma amostra aleatória da população dos pesos das formigas Solenopsis anteriormente considerada. A hipótese estatística de que o peso médio desta população toma o valor 8dg denota-se por: H0 : µ = 8 versus H1 : µ 6= 8 (Hipótese simples) É usual abreviar a palavra “versus” para “vs”: H0 : µ = 8 vs H1 : µ 6= 8 A hipótese estatística de que o peso médio desta população é menor ou igual a 8dg denota-se por: H0 : µ ≤ 8 vs H1 : µ > 8 (Hipótese composta). 63 64 CAPÍTULO 8. TESTE DE HIPÓTESES Ao testarmos uma hipótese nula contra uma hipótese alternativa, a nossa atitude deverá ser admitir H0 como verdadeira até que os dados fornecidos pela amostra “testemunhem” fortemente contra ela; nesse caso, H0 deverá ser rejeitada a favor de H1 . Definição 8.3 (Teste de Hipóteses). Um teste de hipóteses é uma regra que nos permite decidir se devemos, ou não, rejeitar H0 . Esta regra é baseada no valor que a estatística de teste W assume. Assim se, • W (x1 , x2 , . . . , xn ) ∈ R, rejeita-se H0 (e aceita-se H1 como verdadeira); • W (x1 , x2 , . . . , xn ) ∈ / R, não se rejeita H0 . O conjunto R representa a região crítica ou região de rejeição. Definição 8.4 (Erros de tipo I e de tipo II). Quando realizamos um Teste de Hipóteses podemos cometer um dos seguintes erros: • A rejeição de H0 quando ela é verdadeira (erro de tipo I); • A não rejeição de H0 quando esta é falsa (erro de tipo II). Representamos por α e β, respectivamente, a probabilidade de ocorrer um erro de tipo I ou II, isto é, • α = P (erro de tipo I) = P (rejeitar H0 |H0 é verdadeira); • β = P (erro de tipo II) = P (não rejeitar H0 |H0 é falsa). Chamamos ainda nível de significância a α e potência do teste a 1−β. Os níveis de significância mais usuais são α = 0.01, α = 0.05 ou α = 0.1. Observação: O teste ideal é aquele em que estas as probabilidades α e β têm valor mínimo. Contudo, é impossível minimizá-las simultaneamente. De facto, quando α diminui, β aumenta e vice-versa. O procedimento usual consiste em fixar o nível de significância α e escolher a região de rejeição que minimiza β, isto é, que maximize a potência do teste. Exemplo 8.5. Seja (X1 , X2 , . . . , Xn ) uma amostra aleatória da população dos pesos das formigas Solenopsis, isto é, da população X ∼ N (µ, 22 ). Um teste possível para testar: H0 : µ ≤ 8 vs é rejeitar H0 se X−8 √ 2/ n H1 : µ > 8, > 1.64. 8.2. TESTE DE HIPÓTESES PARA A MÉDIA DA POPULAÇÃO 65 Definição 8.6 (Valor-p ou “p-value”). De um modo informal, podemos definir o valor-p ou “p-value” como o mais pequeno nível de significância que leva à rejeição de H0 . Assim, • um valor-p pequeno é desfavorável a H0 . • um valor-p elevado indica que as observações são consistentes com H0 . Nota: Geralmente o software estatístico apenas apresenta o valor-p do teste. Cabe ao utilizador tomar a decisão ao nível de significância α. Quanto menor for o valor-p, menor é a consistência entre os dados e H0 . Assim, se valor-p < α, devemos rejeitar H0 , ao nível de significância α. Regra de cálculo do valor-p: Seja (x1 , x2 , . . . , xn ) a concretização da amostra aleatória e wobs = W (x1 , x2 , . . . , xn ), o valor observado da estatística de teste W . O valor-p corresponde à probabilidade de se observar um valor igual ou mais “extremo” do que o observado, wobs , se a hipótese nula é verdadeira. O cálculo desta probabilidade depende do tipo de região de rejeição da hipótese H0 , conforme indicado na seguinte tabela: Região de rejeição ] − ∞, −c [ ∪ ] c, +∞[ ou ] 0, b [ ∪ ] c, +∞[ ] − ∞, c [ ou ] 0, c [ ] c, +∞[ 8.2 valor-p 2 × min P (W < wobs | H0 ), P (W > wobs | H0 ) P (W < wobs | H0 ) P (W > wobs | H0 ) Teste de Hipóteses para a média da população De modo análogo, ao efectuado no capítulo anterior, a dedução do teste de hipóteses para o valor médio da população será feito admitindo um dos seguintes pressupostos: 1. População Normal e Variância conhecida; 2. População Normal e Variância desconhecida; 3. População não-Normal e Variância conhecida; 4. População não-Normal e Variância desconhecida. 66 CAPÍTULO 8. TESTE DE HIPÓTESES 8.2.1 Teste bilateral • Vamos admitir que (X1 , X2 , . . . , Xn ) representa uma amostra aleatória de uma população Normal com variância conhecida e que pretendemos testar H0 : µ = µ0 H1 : µ 6= µ0 vs (teste bilateral) • Já sabemos que X é um estimador centrado de µ. Também já se verificou que √ X−µ n σ ∼ N (0, 1), embora o valor médio, µ, seja desconhecido. Assim, vamos considerar a seguinte estatística de teste: Z= X − µ0 √ σ/ n ∼ sob H0 N (0, 1). • Considere o nível de significância α. Estamos interessados em rejeitar H0 quando os valores observados não estiverem de acordo com esta hipótese, isto é, quando a diferença entre X e µ0 for grande. Assim, vamos considerar a região de rejeição Rα = ] − ∞, −zα/2 [ ∪ ]zα/2 , +∞[, indicada na Figura 8.1. Rα Rα 0.0 1−α − zα 2 0 zα 2 Figura 8.1: Região de rejeição para o teste bilateral para o valor médio. • A regra de decisão do teste consiste em rejeitar H0 se zobs = x−µ √0 σ/ n ∈ Rα , ou seja, se |zobs | > zα/2 . Exemplo 8.7. Considere novamente o exemplo da população dos pesos das formigas Solenopsis, isto é, a população X ∼ N (µ, 22 ), da qual observámos a amostra aleatória de 4 pesos (8, 13, 9, 8.5). Com base nesta amostra vamos testar, a um nível de significância 5%, a hipótese de que o peso médio populacional µ é igual a 9dg, ou seja vamos testar: H0 : µ = 9 vs H1 : µ 6= 9. • Como a população é normal com variância conhecida, a estatística de teste é: Z= X−9 √ ∼ 2/ 4 sob H0 N (0, 1). 67 8.2. TESTE DE HIPÓTESES PARA A MÉDIA DA POPULAÇÃO • Região de rejeição para α = 0.05: Rα =] − ∞, −1.96[ ∪ ]1.96, +∞[. • Regra de decisão do teste: Rejeitar H0 ao nível de significância 5% se zobs = 9.625−9 √ 2/ 4 • Decisão: Como zobs = x−9 √ 2/ 4 ∈ R0.05 . = 0.625 ∈ / R0.05 , não rejeitamos H0 ao nível de significância 5%, significando que os dados não vão contra o pressuposto de que o peso médio das formigas é 9dg.. Exemplo 8.8 (Cálculo do valor-p do teste do Exemplo 8.7). Como Zobs ' 0.63, valor-p = 2 min P (Z < 0.63 | H0 ), P (Z > 0.63 | H0 ) = 2P (Z > 0.63 | H0 ) = = 2(1 − P (Z ≤ 0.63 | H0 )) = 2(1 − Φ(0.63)) = 0.5286. Outros testes de hipóteses bilaterais para o valor médio O teste de hipóteses bilateral, apresentado nesta secção, baseou-se no pressuposto da população ter distribuição Normal e da variância ser conhecida. Noutras condições o teste faz-se de forma análoga, podendo ser necessário alterar a estatística de teste e respectiva região de rejeição, conforme indicado na seguinte tabela: População Pop. Normal de média µ Variância Rejeitar H0 se σ 2 conhecida X−µ σ/√n0 > zα/2 X−µ S/√n0 > tn−1,α/2 X−µ σ/√n0 > zα/2 X−µ S/√n0 > zα/2 σ 2 desconhecida Pop. não-Normal de média µ (n ≥ 30) 8.2.2 σ 2 conhecida σ 2 desconhecida Teste unilateral direito • Vamos admitir que (X1 , X2 , . . . , Xn ) representa uma amostra aleatória de uma população Normal com variância conhecida e pretendemos testar H0 : µ ≤ µ0 vs H1 : µ > µ0 (teste unilateral direito) • De modo análogo, ao apresentado no teste bilateral, vamos considerar a seguinte estatística de teste: Z= X − µ0 √ σ/ n ∼ sob H0 N (0, 1). • Vamos considerar a região de rejeição Rα =]zα , +∞[, indicada na Figura 8.2. • Regra de decisão: Rejeitar H0 , ao nível de significância α se zobs ∈ Rα . 68 CAPÍTULO 8. TESTE DE HIPÓTESES Rα 1−α 0.0 α 0 zα Figura 8.2: Região de rejeição para o teste unilateral direito para o valor médio. Outros testes de hipóteses unilaterais direitos para o valor médio A estatística de teste e a região de rejeição podem mudar ligeiramente, consoante a população tem, ou não, distribuição Normal e a variância é, ou não é, conhecida. A próxima tabela apresenta, de forma resumida, as alterações que se devem fazer no teste de hipóteses anteriormente deduzido: População Pop. Normal de média µ Variância Rejeitar H0 se σ 2 conhecida X−µ √ 0 > zα σ/ n X−µ √ 0 > tn−1,α S/ n X−µ √ 0 > zα σ/ n σ 2 desconhecida Pop. não-Normal de média µ (n ≥ 30) 8.2.3 σ 2 conhecida σ 2 desconhecida X−µ √0 S/ n > zα Teste unilateral esquerdo O procedimento que deduz o teste unilateral esquerdo, para o valor médio, H0 : µ ≥ µ0 vs H1 : µ < µ0 (teste unilateral esquerdo), é análogo ao do teste unilateral direito. Por esta razão apenas se apresentamos a seguinte tabela resumo: População Pop. Normal de média µ Variância Rejeitar H0 se σ 2 conhecida X−µ √ 0 < −zα σ/ n X−µ √ 0 < −tn−1,α S/ n X−µ √ 0 < −zα σ/ n X−µ √ 0 < −zα S/ n σ 2 desconhecida Pop. não-Normal de média µ (n ≥ 30) σ 2 conhecida σ 2 desconhecida 8.3. TESTE DE HIPÓTESES PARA A VARIÂNCIA, σ 2 , DE UMA POPULAÇÃO NORMAL 69 Teste de Hipóteses para a variância, σ 2 , de uma população Normal 8.3 Suponha que observamos uma amostra aleatória (X1 , X2 , . . . , Xn ) de uma população X ∼ N (µ, σ 2 ), em que µ é desconhecido. Vamos nesta secção considerar apresentar alguns testes de hipóteses, relativos ao valor da variância da população, σ 2 . • Testamos uma das três seguintes hipóteses (nula e alternativa): 1. H0 : σ 2 = σ02 vs H1 : σ 2 6= σ02 (teste bilateral); 2. H0 : σ 2 ≤ σ02 vs H1 : σ 2 > σ02 (teste unilateral direito); 3. H0 : σ 2 ≥ σ02 vs H1 : σ 2 < σ02 (teste unilateral esquerdo). • Vamos escolher a estatística de teste com base no estimador de σ 2 , S 2 , variância amostral: X2 = (n − 1)S 2 σ02 χ2n−1 . ∼ sob H0 • Definamos a região de rejeição do teste: Para um nível de significância α, pré-especificado, as regiões de rejeição dos três tipos de hipóteses são, respectivamente, indicadas nas seguintes figuras: Rα Rα 1−α 2 α χ2n−−1::α 1−α α 2 0.0 0.0 α 2 χ2n−−1::1−−α Rα 1−α 0.0 α 2 0 Rα χ2n−−1::α 0 0 χ2n−−1::1−−α Figura 8.3: Esquerda: Região de rejeição para o teste bilateral. Centro: Região de rejeição para o teste unilateral direito. Direita: Região de rejeição para o teste unilateral esquerdo. Ou seja, a região de rejeição do teste, para um nível de significância α pré-especificado é, respectivamente: 1. Rα = ]0, χ2n−1,1−α/2 [ ∪ ]χ2n−1,α/2 , +∞[ (teste bilateral); 2. Rα = ]χ2n−1,α , +∞[ (teste unilateral direito); 3. Rα = ]0, χ2n−1,1−α [ (teste unilateral esquerdo); 2 ∈R . • Rejeitamos H0 se Xobs α 70 CAPÍTULO 8. TESTE DE HIPÓTESES 8.4 Teste de Hipóteses para a proporção p de uma população Admita que temos uma amostra aleatória de dimensão n de uma população, em que determinada proporção desconhecida p dos seus elementos possui certa característica. • Admita que pretendemos testar uma das seguintes hipóteses (nula e alternativa): 1. H0 : p = p0 vs H1 : p 6= p0 (teste bilateral); 2. H0 : p ≤ p0 vs H1 : p > p0 (teste unilateral direito); 3. H0 : p ≥ p0 vs H1 : p < p0 (teste unilateral esquerdo); • Estatística de teste: Z=p P̂ − p0 p0 (1 − p0 )/n a ∼ sob H0 N (0, 1) • Definamos a região de rejeição do teste: Para um nível de significância α, pré-especificado, as regiões de rejeição dos três tipos de hipóteses são, respectivamente, indicadas nas seguintes figuras: Rα Rα Rα 2 0 zα 1−α α 0 2 zα 0.0 − zα 1−α 0.0 0.0 1−α Rα α − zα 0 Figura 8.4: Esquerda: Região de rejeição para o teste bilateral. Centro: Região de rejeição para o teste unilateral direito. Direita: Região de rejeição para o teste unilateral esquerdo. Região de rejeição do teste, para um nível de significância α pré-especificado: 1. Rα = ] − ∞, −zα/2 [ ∪ ]zα/2 , +∞[ 2. Rα = ]zα , +∞[ 3. Rα = ] − ∞, −zα [ (teste bilateral); (teste unilateral direito); (teste unilateral esquerdo); • Regra de decisão do teste: Rejeitar H0 ao nível de significância α se zobs = p p̂obs − p0 ∈ Rα . p0 (1 − p0 )/n 71 8.5. TESTE DAS SEQUÊNCIAS ASCENDENTES E DESCENDENTES 8.5 Teste das sequências ascendentes e descendentes O teste a seguir apresentado permite-nos testar a hipótese de aleatoriedade, uma condição essencial nos diversos métodos estatísticos já estudados. Considere as hipóteses: H0 : A amostra é aleatória vs. H1 : A amostra não é aleatória • Seja (X1 , X2 , . . . , Xn ) uma amostra da população X. Vamos substituir pelo símbolo “+” cada observação precedida por uma de valor inferior, e pelo símbolo “-” cada observação que é precedida por outra de valor superior. As observações precedidas por outras de valor igual são desprezadas (e corrige-se a dimensão da amostra, n). • A estatística de teste é: 2n−1 3 16n−29 90 V − Z= q a ∼ N (0, 1). sob H0 com V = número de sequências de sinais “+” e “-”. Na prática considera-se que a distribuição de Z é razoável se n ≥ 25. • Região de rejeição para o nível de significância α. Rα = ] − ∞, −zα/2 [ ∪ ]zα/2 , +∞[ Rejeitamos H0 , ao nível de significância α, sempre que zobs ∈ Rα . Nota: O teste também pode ser aplicado em amostras de pequena dimensão (n < 25). Nesse caso utiliza-se a estatística de teste V . Para mais detalhes consulte a bibliografia aconselhada. Exemplo 8.9 (Exame de P.E. - 2008/09). Considere a seguinte amostra, de dimensão n = 30, do número de clientes atendidos por hora em certo posto de venda: 41 35 30 36 28 20 40 42 28 43 26 42 28 40 41 32 30 26 34 28 40 41 36 34 30 24 20 42 43 40 Podemos considerar a amostra aleatória? (considere um nível de significância de 5%) Resposta: Pretendemos testar H0 : A amostra é aleatória vs H1 : A amostra não é aleatória A estatística de teste é 2n−1 3 ∼ 16n−29 Sob H0 90 V − Z= q N (0, 1). Para a amostra indicada, vobs = 17 e zobs = −1.19. A região de rejeição do teste é: R0.05 =] − ∞; −1.96[ ∪ ]1.96; +∞[ Como o valor observado da estatística de teste não pertence à região de rejeição, não rejeitamos a hipótese H0 ao nível de significância 5%. 72 CAPÍTULO 8. TESTE DE HIPÓTESES 8.6 Teste de ajustamento do Qui Quadrado Em muitas situações a distribuição da população é desconhecida, e podemos estar interessados em testar se determinada v.a. ou população tem distribuição F , isto é, podemos estar interessados em testar: H0 : X ∼ F vs H1 : X F (8.1) Existem vários testes de hipóteses que nos permitem testar estas hipóteses. Nesta disciplina iremos apenas abordar um dos mais conhecidos: O teste de ajustamento do Qui-Quadrado. Trata-se de um teste que apresenta a vantagem de poder ser aplicado para qualquer distribuição, desde que a amostra recolhida não seja muito pequena. Existem outros testes de hipóteses que permitem testar as hipóteses em (8.1), como por exemplo: 1. Teste de Kolmogorov-Smirnov (válido para distribuições contínuas); 2. Teste de Shapiro-Wilk (válido para a distribuição Normal). Teste do Qui Quadrado: • Os dados observados (a amostra) são divididos em k classes, A1 , A2 , . . . , Ak . Em cada classe Ai consideramos o número de observações que lhe correspondem (a frequência absoluta de cada classe), denotando esse número por Oi . Consideramos ainda o número de observações que esperaríamos observar em cada uma das classes, se a hipótese nula fosse verdadeira, denotando-o por Ei . Este número é determinado por Ei = n × pi , em que pi é a probabilidade de uma observação pertencer à classe i, caso a hipótese nula seja verdadeira, isto é, pi = P (X ∈ Ai |H0 verdadeira), i = 1, 2, . . . , k. • A estatística de teste usada é: X2 = k X (Oi − Ei )2 i=1 Ei a ∼ sob H0 χ2k−p−1 , onde k é o número de classes e p o número de parâmetros estimados (do modelo considerado na hipótese nula), pelo método da máxima verosimilhança. • Região de rejeição do teste, para um nível de significância α, pré-especificado: Rα =]χ2k−p−1,α , +∞[ 2 ∈R . Rejeitamos H0 , ao nível de significância α, sempre que Xobs α 73 8.6. TESTE DE AJUSTAMENTO DO QUI QUADRADO Observações: 1. Caso exista algum Ei < 5, tipicamente correspondendo às classes dos extremos, essa(s) classe(s) deve(m) ser agrupada(s) até o correspondente novo número esperado Ei (dado pelas somas dos correspondentes antigos Ei0 s) ultrapassar 5. Os correspondentes Oi ’s devem nesse caso ser também somados, diminuindo naturalmente o valor do número de classes k. 2. Como Pk i=1 Oi X2 = = Pk k X Oi2 i=1 = n, a estatística de teste X 2 é igual a: i=1 Ei Ei − n. Exemplo 8.10. Geneticistas pensam que, em determinada população, a distribuição de probabilidade dos grupos sanguíneos é a seguinte: ( MM 0.3 MN 0.5 NN 0.2 Uma amostra de 200 indivíduos desta população, classificados de acordo com estes grupos sanguíneos, revelou 64 indivíduos do grupo MM, 96 do grupo MN e os restantes do grupo NN. (a) Estes dados fornecem evidência estatística para pôr em causa o pressuposto dos geneticistas? (b) Determine, um valor aproximado, do valor-p do teste. Resolução: (a) Usando o teste do Qui Quadrado, pretendemos testar: H0 : P (M M ) = 0.3, P (M N ) = 0.5, P (N N ) = 0.2 H0 : P (M M ) 6= 0.3, ou P (M N ) 6= 0.5, vs ou P (N N ) 6= 0.2 Temos 3 classes e os seguintes valores: A1 = M M O1 = 64 E1 = 60 A2 = M N O2 = 96 E2 = 100 A3 = N N O3 = 40 E3 = 40 Usando a estatística de teste X 2 = 2 Xobs = 642 60 + 962 100 + 402 40 Pk i=1 a (Oi −Ei )2 ∼ Ei sob H0 χ2k−p−1 , obtemos: − 200 = 0.427 Considerando α = 0.05, a região de rejeição é R0.05 =]χ22,0.05 , +∞[=]5.99, +∞[. Como 2 ∈ Xobs / R0.05 , não rejeitamos H0 , ao nível de significância 5%. (b) Valor-p = P (X 2 > 0.427) ' P (X 2 > 0.446) = 0.8. 74 CAPÍTULO 8. TESTE DE HIPÓTESES Exemplo 8.11 (Teste de ajustamento para o modelo Poisson). Pensa-se que o número de defeitos encontrados em circuitos eléctricos tem distribuição Poisson. Recolheu-se uma amostra aleatória de n = 60 circuitos e observaram-se os seguintes números de defeitos: número de defeitos 0 1 2 3 número de circuitos 32 15 9 4 Resolução: Como λ é desconhecido, terá de ser estimado. Assim, λ̂ = x = 0.75. Pretende-se testar: H0 : X ∼ P (0.75) vs H0 : X P (0.75) A tabela anterior já inclui as observações agrupadas em classes. Assim, vamos considerar as classes: A1 = {0}, A2 = {1}, A3 = {2}, A4 = {3, 4, . . .}. Como E4 < 5 é necessário juntar a classe A4 à classe A3 (ver as seguintes tabelas). no de defeitos 0 1 2 3 (ou mais) no de defeitos 0 1 2 (ou mais) pi 0.472 0.354 0.133 0.041 Oi 32 15 13 pi 0.472 0.354 0.174 Ei 28.32 21.24 7.98 2.46 Ei 28.32 21.24 10.44 O valor observado de estatística de teste é: χ2obs = (32 − 28.32)2 (15 − 21.24)2 (13 − 10.44)2 + + = 2.94 28.32 21.24 10.44 Considerando α = 0.05, a região de rejeição é R0.05 =]χ21,0.05 , +∞[=]3.84, +∞[. Como χ2obs = 2.94 < χ21;0.05 = 3.84, não rejeitamos a hipótese H0 de que a distribuição da população é P (0.75). 75 8.6. TESTE DE AJUSTAMENTO DO QUI QUADRADO Exemplo 8.12 (Teste de ajustamento para o modelo Normal). Os artigos produzidos em determinada fábrica são sujeitos a um controle de qualidade, resultando num índice de qualidade, X. De forma a avaliar essa qualidade recolheu-se uma amostra aleatória de 46 artigos da produção, tendo-se medido os valores seguintes do referido índice: 100, 110, 122, 132, 99, 96, 88, 75, 45, 154, 153, 161, 142, 99, 111, 105, 133, 142, 150, 153, 121, 126, 117, 97, 105, 117, 125, 105, 94, 90, 80, 50, 55, 102, 122, 136, 75, 104, 109, 108, 134, 135, 111, 78, 89, 154 Vamos usar estes dados para testar, ao nível de significância 5%, H0 : X ∼ N (µ, σ 2 ) vs H1 : X N (µ, σ 2 ) Como não conhecemos os valores populacionais de µ e σ 2 , vamos estimá-los a partir da amostra. Assim, 46 1 X xi = 111.0652; µ̂ = x = 46 i=1 46 X 1 σ̂ = s = x2 − 46 × x2 46 − 1 i=1 i 2 ! 2 = 785.3068 log(46) Pela regra de Sturges, o número de classes a considerar é dado por: k ≈ 1+ log(n) log(2) = 1+ log(2) ≈ 6.523562 Consideramos k = 7. A amplitude de cada classe é aproximadamente L 7 = 161−45 7 ≈ 16.6. Vamos aproximar este valor a 20, ou seja, considerar as classes: ] − ∞; 60] ]60; 80] ]80; 100] ]100; 120] ]120; 140] ]140; 160] ]160; +∞[ Devemos contar quantas observações caiem em cada um dos intervalos anteriores, para obter os valores de Oi , e devemos determinar os valores de Ei = n × pi = 46 × pi . i 1 2 3 4 5 6 7 Classe ] − ∞; 60] ]60; 80] ]80; 100] ]100; 120] ]120; 140] ]140; 160] ]160; +∞[ Oi 3 4 9 12 10 7 1 pi 0.0344 0.0991 0.2148 0.2772 0.223 0.1114 0.0401 Ei 1.5824 4.5586 9.8808 12.7512 10.258 5.1244 1.8446 i 1 2 3 4 5 Classe ] − ∞; 80] ]80; 100] ]100; 120] ]120; 140] ]140; +∞[ Oi 7 9 12 10 8 pi 0.1335 0.2148 0.2772 0.223 0.1515 Então, como k = 5 classes e foram estimados p = 2 parâmetros (µ e σ 2 ), 2 X = k X (Oi − Ei )2 i=1 Ei sob H0 ∼ χ2k−p−1 ≡ χ25−2−1 ≡ χ22 Ei 6.141 9.8808 12.7512 10.258 6.969 76 CAPÍTULO 8. TESTE DE HIPÓTESES Regra de decisão do teste: Rejeitar H0 ao nível de significância 5% se x2obs ∈ R0.05 ≡]5.99, +∞[. Como x2obs = 0.4019 não rejeitamos, ao nível de significância de 5% a hipótese nula de que a distribuição da população é Normal. Capítulo 9 Regressão Linear 9.1 Introdução A regressão é uma técnica estatística que permite estudar a relação entre uma ou mais variáveis resposta (também designadas por variáveis dependentes) e uma ou mais variáveis explicativas (também designadas por variáveis independentes). Ao modelo matemático que relaciona as variáveis dá-se o nome de equação de regressão. Estamos apenas interessados no caso em que temos uma variável dependente Y , uma variável independente x e a equação de regressão é linear, isto é, Y = β0 + β1 x + ε, ε ∼ N (0, σ 2 ). O termo β0 +β1 x é a componente determinística do modelo e ε é o erro aleatório que se pressupõe ter distribuição normal de valor médio nulo e variância σ 2 . Os parâmetros β0 e β1 terão de ser estimados a partir dos dados. A este modelo dá-se o nome de equação de regressão linear simples. Podemos também usar esta técnica considerando modelos mais complexos como a regressão linear múltipla ou a regressão não linear. Observações: 1. Y também é uma variável aleatória porque, Y = β0 +β1 x+ε e ε ∼ N (0, σ 2 ) é uma variável aleatória. Como E(Y |x) = E(β0 + β1 x + ε|x) = β0 + β1 x + 0 = β0 + β1 x, V (Y |x) = V (β0 + β1 x + ε|x) = V (ε) = σ 2 , isto é, Y |x ∼ N (β0 + β1 x, σ 2 ). 2. O modelo possui o parâmetro adicional, σ 2 , que também terá de ser estimado. 77 78 CAPÍTULO 9. REGRESSÃO LINEAR 9.2 Estimadores dos Mínimos Quadrados de β0 e β1 Suponha que se observam um conjunto de n observações da variável independente e da variável resposta - (x1 , Y1 ), (x2 , Y2 ) . . . , (xn , Yn ) - e que se pretendem usar estes valores para estimar os parâmetros de regressão de um modelo de regressão linear simples. Assumimos que os erros aleatórios εi , para cada elemento amostral Yi , são independentes seguindo todos a mesma distribuição N (0, σ 2 ), isto é: com εi ∼ N (0, σ 2 ) Yi = β0 + β1 xi + εi , independentes. Assim deveremos encontrar estimadores β̂0 e β̂1 , dos coeficientes da recta de regressão β0 e β1 , respectivamente, para obtermos a recta estimada, Ŷ = β̂0 + β̂1 x. As estimativas pontuais da recta de regressão para as observações x1 , x2 , . . . , xn serão Ŷi = β̂0 + β̂1 xi , i = 1, 2, . . . , n. Definição 9.1 (Resíduo). Embora a variável residual ε não seja observável, é possível calcular os desvios das n observações da amostra. εi = Yi − Ŷi = Yi − β̂0 − β̂1 xi , i = 1, 2, . . . , n. A estes desvios damos o nome de resíduos. De entre diversos métodos que existem para a dedução dos estimadores, vamos aqui abordar o método dos mínimos quadrados. Neste método, os estimadores β̂0 e β̂1 devem ser obtidos de modo a minimizar a soma do quadrado dos resíduos, SQR = n X (Yi − Ŷi )2 = n X (Yi − β̂0 − β̂1 xi )2 . i=1 i=1 Esta minimização é conseguida resolvendo, em ordem a β0 e β1 , o sistema de equações, ∂ SQ ∂ β̂0 = 0 ⇔ P −2 (Yi − β̂0 − β̂1 xi ) = 0 ⇔ P ∂ SQ = 0 −2 xi (Yi − β̂0 − β̂1 xi ) = 0 ∂ β̂1 P P β̂ = Y − β̂1 x Yi = nβ̂0 + β̂1 xi 0 ⇔ P P P 2 P β̂1 = Pxi Y2i −nxY xi Yi = β̂0 xi + β̂1 x 2 i xi −nx 9.3. ESTIMAÇÃO DE σ 2 E QUALIDADE DO AJUSTE 79 Observação 1: Para simplificar a notação, podemos escrever: β̂1 = SxY Sxx β̂0 = Y − β̂1 x, com Sxx = SxY = n X n X i=1 n X i=1 (xi − x)2 = x2i − nx2 ; (Yi − Y )(xi − x) = i=1 n X Yi (xi − x) = i=1 n X xi Yi − nxY . i=1 Observação 2: A soma dos quadrados dos desvios pode ainda ser escrita da seguinte forma SQR = n X (Yi − Ŷi )2 = SY Y − i=1 2 SxY = SY Y − β̂12 Sxx , Sxx com SY Y = 9.3 n X n X i=1 i=1 (Yi − Y )2 = 2 Yi2 − nY . Estimação de σ 2 e Qualidade do Ajuste Definição 9.2 (Estimador de σ 2 ). O estimador de σ 2 é: σ̂ 2 = SQR n−2 Definição 9.3 (Coeficiente de Determinação). 2 SxY SQR 2 Sxx = β̂ = 1 2 SY Y Sxx SY Y i=1 (Yi − Y ) R 2 = 1 − Pn Esta medida compara a soma de quadrados dos resíduos (SQR ) do modelo de regressão linear simples com a SQR do modelo de regressão linear simples com β1 = 0. A quantidade R2 varia entre 0 e 1. Na prática, consideramos que o ajustamento é razoável se R2 ≥ 0.8. 9.4 9.4.1 Propriedades dos estimadores dos mínimos quadrados Distribuição por amostragem de σ̂ 2 Proposição 9.4 (Propriedades de σ̂ 2 ). No modelo de regressão linear simples, (n − 2) σ̂ 2 SQR = ∼ χ2n−2 . 2 σ σ2 80 CAPÍTULO 9. REGRESSÃO LINEAR 9.4.2 Distribuição por amostragem de β̂0 e β̂1 Proposição 9.5 (Distribuição por amostragem de β̂0 e β̂1 ). No modelo de regressão linear simples, σ2 β̂1 ∼ N β1 , Sxx ! , 2 β0 , nSσ xx β̂0 ∼ N e n P 2 xi . i=1 Demonstração. Note-se que SxY β̂1 = = Sxx Pn i=1 (xi − x)Yi Sxx , isto é, β̂1 é uma combinação linear de v.a.’s Yi independentes, com distribuição Normal. Logo β̂1 também tem distribuição Normal. E ainda necessário conhecer os seus parâmetros. O seu valor médio é n − x)E(Yi ) (xi − x)(β0 + β1 xi ) E(β̂1 ) = = i=1 = Sxx Sxx Pn P β0 ni=1 (xi − x) + β1 β1 Sxx i=1 (xi − x)xi = = = β1 Sxx Sxx Pn P i=1 (xi e a variância, Pn i=1 (xi V (β̂1 ) = V = − x)Yi Sxx Pn i=1 (xi = Yi0 s indep. − x)2 V (Yi ) = 2 Sxx Pn i=1 (xi − x)2 σ 2 2 Sxx σ2 Sxx 2 σ = . 2 Sxx Sxx Relativamente β̂0 , recordemos que β̂0 = Y − β̂1 x. Como Y e β̂1 têm distribuição Normal, então β̂0 também tem distribuição normal. O valor médio é E(β̂0 ) = E(Y ) − E(β̂1 )x = β0 + β1 x − β1 x = β0 , e a variância, σ2 σ2 σ2 V (β̂0 ) = V (Y ) + x2 V (β̂1 ) − 2x Cov(Y , β̂1 ) = + x2 −0= n Sxx n σ2 σ2 = Sxx − nx2 = nSxx nSxx n X ! x2i . i=1 Nota: No cálculo de V (β̂0 ), usou-se o resultado: n n X SxY 1 1X Cov(Y , β̂1 ) = Cov(Y , )= Cov Yi , (xj − x)Yj Sxx Sxx n i=1 j=1 = n n 1 X σ2 X (xi − x)V (Yi ) = (xi − x) = 0 nSxx i=1 nSxx i=1 nx2 1+ Sxx ! 81 9.5. INFERÊNCIA SOBRE OS PARÂMETROS DO MODELO DE REGRESSÃO Observação: A partir do resultado anterior conclui-se que β̂0 e β̂1 são estimadores centrados de β0 e β1 , respectivamente. Consequentemente, querendo fazer inferência sobre os parâmetros β0 ou β1 , não podemos usar a distribuições de β̂0 e β̂1 , já que elas dependem de σ 2 (geralmente é desconhecido). Como σ̂ 2 = SQR n−2 . teremos de usar os seguintes resultados: β̂1 − β1 p β̂1 − β1 T = q 2 = Sxx ∼ tn−2 , σ̂ σ̂ Sxx T =q 9.5 9.5.1 β̂0 − β0 σ̂ 2 nSxx Pn 2 i=1 xi s = nSxx β̂0 − β0 ∼ tn−2 . 2 σ̂ i=1 xi Pn Inferência sobre os parâmetros do Modelo de Regressão Intervalo de Confiança e Teste de Hipóteses para β1 O parâmetro β1 é o declive da recta de regressão e, como tal mede o grau de crescimento de Y relativamente a x. Intervalo de confiança a (1 − α)100% para β1 • Vamos utilizar a seguinte variável pivot: β̂1 − β1 T = q 2 ∼ tn−2 σ̂ Sxx • Para um nível de confiança de (1 − α) × 100%, escolha de c1 e c2 - escolhemos c1 = −c e c2 = c, tal que P (−c < T < c) = 1 − α. É fácil de verificar que c = tn−2,α/2 . • Determinação dos extremos do intervalo: q − c < T < c ⇔ −tα/2 < T < tα/2 − c q −c σ̂ 2 Sxx q − β̂1 < −β1 < c β̂1 − tn−2,α/2 q σ̂ 2 Sxx σ̂ 2 Sxx σ̂ 2 Sxx q < β̂1 − β1 < c σ̂ 2 Sxx ⇔ − β̂1 ⇔ < β1 < β̂1 + tn−2,α/2 q σ̂ 2 Sxx • Assim, obtemos o seguinte intervalo de confiança: i IC(1−α)×100% (β1 ) = β̂1 − tn−2;α/2 q σ̂ 2 Sxx , β̂1 + tn−2;α/2 q σ̂ 2 Sxx h . 82 CAPÍTULO 9. REGRESSÃO LINEAR Teste de Hipóteses para β1 Podemos também realizar um teste de hipóteses sobre o valor do parâmetro β1 . Embora o teste tanto possa ser bilateral, como unilateral, a primeira opção é a mais frequente. Por isso apenas apresentamos o teste bilateral, embora este possa ser adaptado para o caso unilateral. • Hipóteses: H0 : β1 = a vs H1 : β1 6= a • Estatística de teste: T = p Sxx β̂1 − a σ̂ ∼ Sob H0 tn−2 • Região de rejeição do teste: Rα =] − ∞; −tn−2,α/2 [ ∪ ]tn−2,α/2 ; +∞[ • Regra de decisão do teste: Rejeitar H0 ao nível de significância α se tobs ∈ Rα , ou seja, se |tobs | > tn−2;α/2 . 9.5.2 Intervalo de Confiança e Teste de Hipóteses para β0 O parâmetro β0 corresponde ao ponto de intersecção da recta com o eixo das abcissas. A inferência sobre este parâmetro não tem a mesma importância que tem a inferência sobre o declive β1 da recta de regressão. Intervalo de Confiança a (1 − α) × 100% para β0 De modo análogo, ao que foi feito para β1 , mas agora utilizando a variável pivot, T =q β̂0 − β0 σ̂ 2 nSxx Pn 2 i=1 xi s = nSxx β̂0 − β0 ∼ tn−2 , 2 σ̂ i=1 xi Pn obtemos o intervalo de confiança (1 − α) × 100% para β0 : i IC(1−α)×100% (β0 ) ≡ β̂0 − tn−2;α/2 r σ̂ 2 r Pn x2 i=1 i nSxx ; β̂0 + tn−2;α/2 σ̂ 2 Pn x2 i=1 i nSxx h . Testes de hipóteses para β0 Os testes de hipóteses sobre o parâmetro β0 podem ser tanto bilaterais como unilaterais, sendo 83 9.5. INFERÊNCIA SOBRE OS PARÂMETROS DO MODELO DE REGRESSÃO sempre baseados na distribuição por amostragem anteriormente apresentada para β̂0 . Vamos considerar apenas o teste bilateral para β0 , ou seja, as hipóteses: H0 : β0 = a vs H1 : β0 6= a O teste realiza-se de modo análogo ao apresentado para β1 , mudando apenas a estatística de teste que é dada por T =q 9.5.3 β̂0 − a σ̂ 2 nSxx Pn 2 i=1 xi ∼ Sob H0 tn−2 Intervalo de Confiança e Teste de Hipóteses para σ 2 Como σ̂ 2 = SQR n−2 é estimador centrado de σ 2 e SQR σ2 ∼ χ2n−2 , podemos deduzir um intervalo de confiança (1 − α) para a variância σ 2 e para o desvio padrão σ. Seguindo o procedimento adoptado, na secção 7.2, obtemos " # (n − 2)σ̂ 2 (n − 2)σ̂ 2 ; , IC(1−α)×100% (σ ) ≡ χ2n−2;α/2 χ2n−2;1−α/2 2 e v u u (n − 2)σ̂ 2 IC(1−α)×100% (σ) ≡ t 2 ; χn−2;α/2 v u u (n − 2)σ̂ 2 . t 2 χn−2;1−α/2 De modo análogo ao apresentado na secção 8.3, podemos também realizar testes de hipótese (bilaterais e unilaterais) para σ 2 recorrendo à distribuição de σ̂ 2 . Exemplo 9.6 (Exame de Probabilidades e Estatística C 2005/06). Pretende-se, se possível, modelar através de uma recta de regressão simples o consumo de combustível, Y , de um automóvel em função da sua velocidade de circulação, x. Para tal registaram-se os valores de consumo de combustível para um mesmo percurso de 100Km, percorrido a diferentes velocidades: xi yi x = 85, 50 5.22 Y = 8.46, 60 6.25 70 6.85 80 8.36 x2i = 62000, X X 90 8.09 100 10.16 Yi2 = 610.43, 110 11.17 120 11.57 X Yi xi = 6145.5, SQR = 1.15 (a) Ajuste um modelo de regressão linear simples aos dados. Que pode dizer sobre a qualidade do ajuste? (b) Diga por suas palavras como interpreta o valor estimado do declive da recta acima considerada. O sinal desta estimativa está de acordo com as suas expectativas? Porquê? (c) Determine um intervalo de confiança a 95% para o verdadeiro declive da recta de regressão. Comente o resultado face à qualidade do ajuste concluída na alínea (a). 84 CAPÍTULO 9. REGRESSÃO LINEAR 9.6 Estimação do valor esperado de Y para uma observação x0 da variável controlada O valor esperado de Y para uma observação x0 da variável controlada é µY |x0 = E(Y |x0 ) = β0 + β1 x0 . que pode ser estimado por µ̂Y |x0 = β̂0 + β̂1 x0 . Caso a variância do erro, σ 2 , não seja conhecida, a distribuição de amostragem de µ̂Y |x0 é T =r µ̂Y |x0 − µY |x0 σ̂ 2 1 n + (x0 −x)2 Sxx ∼ tn−2 , o que permite deduzir o intervalo de confiança (1 − α) para µY |x0 , i r µ̂Y |x0 − tn−2;α/2 σ̂ 2 1 n + (x0 −x)2 Sxx r , µ̂Y |x0 + tn−2;α/2 σ̂ 2 1 n + (x0 −x)2 Sxx h . Nota: Só devemos fazer estimação de µY |x0 para valores x0 que estejam dentro do intervalo das observações obtidas para x. 9.7 Previsão do valor da variável resposta Y para um novo valor x0 da variável controlada Dada um valor x0 da variável controlada x, a variável resposta é Y0 = Y (x0 ) = β0 + β1 x0 + ε, onde ε ∼ N (0, σ 2 ). O estimador de Y , para um valor x0 , é Yb0 = Yb (x0 ) = β̂0 + β̂1 x0 O erro de predição, εp = Y0 − Yb0 , é uma v.a. Normal de valor médio 0. Como Y0 (observação futura) é independente de Yb0 , a variância de εp é de dada por 1 (x0 − x)2 1+ + n Sxx V (εp ) = V (Y0 − Yb0 ) = σ 2 Se σ 2 for estimado por σ̂ 2 , então T =r ! . b0 Y0 − Y 1 σ̂ 2 1+ n + (x0 −x)2 Sxx ∼ tn−2 . O intervalo de confiança (1 − α) para Y0 é, i r Yb0 − t n−2;α/2 σ̂ 2 1+ 1 n + (x0 −x)2 Sxx r ; Yb0 + t n−2;α/2 σ̂ 2 1 + 1 n + (x0 −x)2 Sxx h . Capítulo 10 Exercícios 10.1 Introdução à Teoria da Probabilidade 1.1 Vinte e cinco membros de uma sociedade devem eleger um presidente, um secretário e um tesoureiro. Supondo que qualquer dos vinte e cinco membros é elegível para qualquer dos cargos, quantas são as hipóteses de um resultado final? 1.2 Considere o problema anterior. Suponha que não há diferenciação dos cargos. De quantas maneiras distintas se podia formar uma comissão, com três elementos escolhidos entre os vinte e cinco elementos? 1.3 Quantas palavras diferentes, com ou sem significado, se podem formar com as letras da palavra ROMA? 1.4 Quatro livros de Matemática, seis de Física e dois de Química, todos diferentes, devem ser arrumados numa prateleira. Quantas arrumações diferentes são possíveis se: (a) os livros de cada matéria ficarem todos juntos? (b) apenas os livros de matemática devem ficar juntos? 1.5 Numa sala de cinema, de quantas maneiras diferentes se podem sentar numa fila de 12 lugares, 7 amigos? 1.6 De quantas maneiras 10 pessoas podem sentar-se num banco, se houver apenas 4 lugares? 1.7 De quantas formas diferentes se podem sentar 12 pessoas numa mesa redonda? 1.8 Um homem tem 3 camisas e 2 gravatas. De quantas maneiras pode vestir-se (com uma camisa e uma gravata)? 1.9 Num conjunto de 10 lâmpadas para árvore de natal, 2 são defeituosas. Quantas amostras de 6 lâmpadas podem ser escolhidas, de entre aquelas 10, de modo que: (a) as 6 lâmpadas escolhidas sejam todas boas? (b) entre a 6 escolhidas haja uma, e uma só defeituosa? 1.10 Dados 12 pontos num plano, não havendo 3 deles sobre a mesma recta, (a) quantas rectas são determinadas pelos pontos? (b) quantas dessas rectas passam pelo ponto A? (c) quantos triângulos são determinados pelos pontos? (d) Quantos desses triângulos contêm o ponto A como vértice? 85 86 CAPÍTULO 10. EXERCÍCIOS (e) Quantos desses triângulos contêm o lado AB? 1.11 De um baralho de 52 cartas são retiradas 10 cartas. Em quantos casos aparecem: (a) exactamente um ás? (b) pelo menos um ás? (c) exactamente dois ases? (d) pelo menos dois ases? (e) Um ás ou um ouro? 1.12 Determine o valor n que seja solução de: (a) n−2 =6 2 n+1 (b) − n−1 = n2 − 1 2 2 (c) 5 × n3 = n+2 4 1.13 Os atletas A, B, e C vão participar numa corrida e todos estão preparados para a ganhar. O sistema de cronometragem é suficientemente preciso de modo que não se admitem empates. (a) Qual a probabilidade de A terminar a corrida à frente de C? (b) Qual a probabilidade de A ganhar a corrida? 1.14 Por engano misturaram-se quatro pilhas novas com três usadas. Escolhendo, ao acaso e sem reposição, duas dessas pilhas, determine a probabilidade de: (a) Ambas serem novas (b) Nenhuma ser nova (c) Pelo menos uma ser nova 1.15 Num grupo de 20 congressistas, 8 só falam inglês, 5 só falam francês e 7 falam os dois idiomas. Qual a probabilidade de dois congressistas, escolhidos ao acaso, poderem conversar sem auxílio de um intérprete? 1.16 Uma urna contém quatro bolas amarelas, cinco bolas verdes, três bolas brancas e cinco bolas pretas. Extraem-se sucessivamente, ao acaso e sem reposição, quatro bolas. Qual a probabilidade de: (a) Obter na primeira extracção uma bola amarela, na segunda uma verde, depois uma branca e finalmente uma preta? (b) Obter o mesmo conjunto de cores independentemente da sua ordem? 1.17 (Teste de P.E. 2006/07) Considere os acontecimentos A e B de um espaço de resultados tais que P (A ∪ B) = 0.8, e P (A − B) = 0.3. Qual o valor da P (B)? 1.18 Sejam A, B e C acontecimentos tais que P (A) = P (B) = P (C) = 41 , P (A ∩ B) = P (B ∩ C) = 0 e P (A ∩ C) = 18 . Qual a probabilidade de se verificar pelo menos um dos 3 acontecimentos? 1.19 Sabendo que A e B são acontecimentos tais que P (A) = 23 , P (B) = P (A − B), P (A ∪ B), P (Ā ∪ B̄), P (Ā ∩ B) e P (A ∪ B̄). 1 2 e P (A ∩ B) = 13 , determine 1.20 De 100 agricultores, 50 produzem vinho, 30 produzem milho e 10 produzem vinho e milho. Escolhendo um deste agricultores ao acaso qual a probabilidade de: (a) Ele produza vinho ou milho? (b) Ele não produza vinho nem milho? 10.1. INTRODUÇÃO À TEORIA DA PROBABILIDADE 87 1.21 A probabilidade de um homem estar vivo daqui a 25 anos é 35 e a probabilidade da sua mulher ainda viver na mesma ocasião é de 23 . Determine a probabilidade de daqui a 25 anos: (a) Ambos estarem vivos. (b) Apenas o homem estar vivo. (c) Apenas a mulher estar viva. (d) Apenas um estar vivo. 1.22 Em determinada gelataria 40% dos clientes escolhem o sabor chocolate, 30% escolhem o sabor limão e 15% escolhem os dois. Seleccionou-se ao acaso um cliente dessa gelataria. (a) Se escolheu o sabor limão, qual a probabilidade de ter escolhido também o sabor chocolate? E vice-versa? (b) Qual a probabilidade de escolher limão ou chocolate? 1.23 Suponha que 10% da população de certo país sofre de problemas cardíacos e que, de entre estes, 70% são fumadores. De entre os que não sofrem de problemas cardíacos 45% fumam. Seleccionada ao acaso uma pessoa desta população: (a) Qual a probabilidade de ser fumadora? (b) Se for fumadora, qual a probabilidade de sofrer de problemas cardíacos? 1.24 Num clube de futebol treinam regularmente 30 jogadores, dos quais 8 são atacantes, 12 são médios e os restantes são defesas. Independentemente dos resultados dos restantes jogadores, cada atacante tem uma probabilidade de 3/4 de marcar golo de penalty, cada médio tem uma probabilidade de 1/2 de marcar golo por penalty e cada defesa consegue-o com probabilidade 1/5. (a) Qual a probabilidade de que um jogador, escolhido ao acaso, marque golo devido a penalty? (b) Dado que, num jogo, um qualquer jogador marcou um golo de penalty, qual a probabilidade de esse jogador ser médio? 1.25 Sejam A e B acontecimentos independentes. Mostre que A e B são também acontecimentos independentes. 1.26 Um aluno conhece bem 60% da matéria dada. Num exame com cinco perguntas, sorteadas ao acaso, sobre toda a matéria, qual a probabilidade de vir a responder correctamente a duas perguntas? 1.27 Numa certa rua existem duas caixas Multibanco - A e B. A probabilidade de as máquinas avariarem é, independentemente uma da outra, de 0.05 para a A e 0.01 para a B. Determine a probabilidade de, num dia qualquer: (a) Ambas as máquinas estarem avariadas. (b) Apenas a máquina A estar avariada. (c) Pelo menos uma das máquinas estar avariada. 1.28 (Teste de P.E. 2006/07) Uma urna tem oito moedas, seis honestas e duas viciadas. O resultado do lançamento de uma moeda viciada é sempre “cara”. (a) Escolhendo duas das oito moedas disponíveis, ao acaso e sem reposição, qual a probabilidade de seleccionar as duas moedas viciadas. (b) Escolhendo uma moeda ao acaso, qual a probabilidade de obter três caras em três lançamentos sucessivos dessa moeda? (c) Se em três lançamentos, da mesma moeda, o resultado foi sempre “cara”, qual a probabilidade de ter escolhido a moeda viciada? 88 CAPÍTULO 10. EXERCÍCIOS 1.29 (Exame de de P.E. D - 2008/09) Um laboratório farmacêutico produz um kit, que identifica rapidamente o tipo de sangue de uma pessoa, entre os 4 possíveis: A, B, O e AB. O ensaio clínico efectuado antes da comercialização do kit indica que 2%, 3%, 5% e 10% das pessoas com sangue de tipo A, B, O e AB, respectivamente, são incorrectamente classificadas. Sabendo que 40% da população tem sangue do tipo A, 10% tem sangue de tipo B, 45% tem sangue de tipo O e os restantes têm sangue de tipo AB, calcule: (a) A probabilidade de uma pessoa, que usou o kit, ser incorrectamente classificada. (b) A probabilidade de uma pessoa, que usou o kit e foi incorrectamente classificada, ter sangue de tipo AB. 10.2. VARIÁVEIS ALEATÓRIAS 10.2 89 Variáveis aleatórias 2.1 A variável aleatória (v.a.) X representa o número de doentes com gripe que procuram, por dia, o Dr. Remédios. Em 50% dos dias, pelo menos 2 pacientes com gripe procuram o Dr. Remédios. A sua função de probabilidade é dada por: 0 1 2 3 X p 0.2 q 0.3 (a) Determine p e q. (b) Determine a função de distribuição da v.a. X e esboce o seu gráfico. Comente-o. (c) Determine a função de probabilidade das v.a.’s Y = 40X e W = max(X, 1). 2.2 A v.a. X representa o número de pontos que saem no lançamento de um determinado dado. A sua função de distribuição segue-se: 0, x<1 1/6, 1 ≤ x<2 1/4, 2 ≤ x < 4 F (x) = 1/2, 4 ≤ x < 5 7/12, 5≤x<6 1, x≥6 (a) Calcule as seguintes probabilidades, usando a função de distribuição: i) ii) iii) iv) A probabilidade de o número de pontos saídos ser no máximo 3. P (1 < X ≤ 2). P (2 ≤ X < 6). A probabilidade de o número de pontos saídos não distar de 2 pontos por mais de 1 ponto. (b) Determine a função de probabilidade de X e confirme os resultados acima obtidos. (c) Pode afirmar que o dado é equilibrado? Justifique. (d) Sabendo que o número de pontos saído é pelo menos 4, calcule a probabilidade de saírem 6 pontos. 2.3 O Sr. Matias possui um café nas vizinhanças de um estádio de futebol. Da sua experiência, o Sr. Matias sabe que, em dias de futebol, costuma vender ou 50, ou 100, ou 150 ou 200 sandes, com probabilidades 0.2, 0.4, 0.3 e 0.1, respectivamente. O Sr. Matias costuma fazer 100 sandes e quando estas se esgotam recorre a um fornecedor da terra que lhe garante o envio atempado de mais sandes. (a) Qual a probabilidade de as sandes preparadas pelo Sr. Matias serem insuficientes para satisfazer a procura? (b) Calcule a probabilidade de vender 200 sandes, num dia em que as sandes por ele feitas não satisfazem a procura. 2.4 Seja X uma v.a. com a seguinte função densidade probabilidade: k + x, −1 ≤ x < 0 k − x, 0 ≤ x < 1 f (x) = 0, c.c. (a) Determine o valor da constante k. (b) Determine a função de distribuição de X e esboce o seu gráfico. (c) Determine P (X > 0). (d) Determine P (X > 0.5|X > 0). 90 CAPÍTULO 10. EXERCÍCIOS 2.5 Considere funções densidade de probabilidade, representadas nos seguintes gráficos. (a) Determine o valor das constantes a e b. f (x) 6 f (x) 6 a c c J J J J J J cb` J cb` −1 0 1 1 2 c −2b x 0 b` b x (b) Qual a relação entre a e b? f (x) 6 b T T T −a 0 a T T b x 2.6 Seja X uma v.a. com a seguinte função densidade probabilidade: 4x, 0 < x < k f (x) = 0, c.c. (a) Esboce o gráfico da função densidade e determine o valor da constante k. (b) Determine a função de distribuição da v.a. X. (c) Calcule P (1/4 ≤ X ≤ 1/3), a mediana e o quantil de ordem 0.95. (d) Identifique através da função de distribuição ou da função densidade, a distribuição das v.a.’s Y = X − 1 e T = X 3. 2.7 A quantidade de tempo, em horas, que um computador funciona até avariar é uma v.a. com a seguinte função densidade probabilidade: x k e− 100 , x ≥ 0 f (x) = 0, x<0 (a) Qual a probabilidade de o computador trabalhar entre 50 e 150 horas antes de avariar? (b) Qual a probabilidade de o computador funcionar menos de 100 horas até avariar? E exactamente 100 horas? (c) Qual a probabilidade de o computador avariar após 200 horas de funcionamento, sabendo que já funcionou mais de 100 horas? 2.8 (Exame de P.E. 2006/07) Seja X uma variável aleatória com função densidade −1 < x ≤ 0; c(1 + x), c(1 − x2 ), 0 < x < 2; f (x) = 0, outros valores de x; (a) Mostre que c = 2/3 e determine a função de distribuição. (b) Calcule P (X ≤ 0|X ≤ 1). 91 10.2. VARIÁVEIS ALEATÓRIAS 2.9 Determine o valor médio e a variância da variável aleatória discreta X com função de probabilidade: P (X = 0) = 81 P (X = 1) = 38 f (2) = 83 P (X = 3) = 18 . Calcule ainda: 1 E(g(X)), com g(X) = X 3 , E 1+X e E(X 2 ). 2.10 Seja X uma v.a. tal que P (X = 0) = 41 , P (X = 1) = p2 , P (X = 2) = com 0 ≤ p ≤ 21 . Determine p de forma a que V (X) seja mínima. 5 8 − p 2 e P (X = 3) = 18 , 2.11 Numa lotaria foram emitidos 10000 bilhetes. Sorteia-se 1 prémio de 25000 unidades monetárias (u.m.) e 10 prémios de 2500 u.m.. Seja X a v.a. que representa o valor do prémio de um bilhete qualquer. (a) Determine a função de probabilidade de X. (b) Qual a probabilidade de um bilhete não ter qualquer prémio? (c) Qual a probabilidade de um bilhete ter pelo menos 2500 u.m.? (d) Determine o E(X), V (X) e CV (X). 2.12 Uma comissão de alunos está a organizar uma festa da faculdade. Os alunos vão comprar 200 litros de cerveja. Um fornecedor deste líquido (A) cobra 1 unidade monetária (u.m.) por litro permitindo a devolução da cerveja que sobrar (e que não tem de ser paga) e um outro fornecedor (B) cobra 0.5 u.m. por litro, não admitindo devoluções. Os alunos, independentemente de quanto lhes custe a cerveja, cobram 1.5 u.m. por litro. Sabendo que, se estiver bom tempo - o que acontecerá com probabilidade 0.8 - os alunos conseguem vender os 200 litros de cerveja, mas se estiver mau tempo só vendem metade, a quem devem comprar? 2.13 Seja X uma v.a. com a seguinte função de distribuição: 0, x<0 F (x) = 1 − (x + 1)e−x , x ≥ 0 (a) Determine a função densidade probabilidade de X. (b) Determine E(X) e V (X). 2.14 Determine E(X), E(X − 1), V (X), E(X(X − 1)), E(eX ), a mediana e o coeficiente de variação da v.a. X, que tem a seguinte função densidade probabilidade: x 0≤x≤1 2, 1, 1<x≤2 2 f (x) = 3−x 2<x≤3 2 , 0, x<0 ∨ x>3 2.15 A v.a. X tem a seguinte função densidade probabilidade: ( k sin(x), 0 ≤ x ≤ π f (x) = 0, c.c. (a) Determine o valor da constante k. (b) Determine E(X) e E(cos(X)). (c) Sabendo que V (X) = (d) Determine V (5X − 4). π2 4 − 2, determine E(X 2 ). 92 CAPÍTULO 10. EXERCÍCIOS 2.16 (Teste de P.E. D - 2008/09) Uma empresa de produtos químicos fabrica um composto que vende em doses unitárias de 1 litro. Suponha que a fracção de álcool numa dose unitária do composto é uma variável aleatória X, com função densidade de probabilidade dada por: kx3 (1 − x), 0 ≤ x ≤ 1; f (x) = 0, outros valores de x; (a) (b) (c) (d) Mostre que k = 20. Determine a função de distribuição. Sabendo que E(X 2 ) = 10/21, calcule V (5X − 1). Sabe-se que o custo de produção de uma dose de composto é sempre 0.8e/l, mas o seu preço de venda em e/l, V , depende do valor de X que lhe corresponde, sendo definido da seguinte forma: 1.2, 1/3 ≤ X ≤ 2/3; V = 1.0, outros valores de X; Obtenha a função de probabilidade da variável aleatória, L = V − 0.8, o lucro obtido por cada dose daquele composto. 93 10.3. VECTORES ALEATÓRIOS 10.3 Vectores Aleatórios 3.1 (Teste de P.E. 2006/07) Numa empresa de construção, o número Y de novos trabalhadores por semana, é uma variável aleatória de valor médio 38 15 . O número de acidentes de trabalho que ocorrem por semana na mesma empresa, X, é também uma variável aleatória. O quadro que se segue tem a função de probabilidade conjunta de (X, Y ). X\Y 0 1 0 c 2c 2 2c 3c a 3c 4c (a) Complete a função de probabilidade conjunta e calcule E(Y (Y − 1)) e P (X + Y ≥ 3). (b) Qual a probabilidade de ocorrer um acidente de trabalho, numa semana onde foram admitidos dois novos trabalhadores? (c) Determine a covariância entre as variáveis X e Y . Comente o resultado. 3.2 Numa empresa de aluguer de aviões informam-nos de que a procura diária de aviões de passageiros, X, e a procura diária de aviões de transporte rápido de correio, Y , constituem um par aleatório (X, Y ), cuja função de probabilidade conjunta é dada por: X\Y 0 1 2 3 0 0 0.1 0 0.2 1 2 0.05 0.1 0.1 0.5 0.25 0.35 p + 0.2 p (a) Qual a probabilidade de, num dia, a procura de aviões de passageiros ser inferior à procura de aviões de transporte rápido de correio? (b) Determine a função de probabilidade de X|Y = 1 e calcule E(X|Y = 1). (c) Para um dia em que foi pedido um avião de transporte rápido de correio, qual a probabilidade de terem sido procurados 1 ou 2 aviões de passageiros? (d) Qual a procura diária média de aviões de passageiros? (e) Deduza a função de probabilidade da procura total diária de aviões de aluguer. (f) Determine a procura diária total média de aviões de aluguer. (g) Sabendo que V (X) = 0.8875, determine Cov(X, Y ), V (X − 2Y ) e ρ(X, Y ). 3.3 (Exame de P.E. 2006/07) Seja (X, Y ) um par aleatório, onde X representa o número diário de imóveis vendidos numa agência imobiliária e Y a v.a. definida por: ( 0, se a agência imobiliária não fecha durante o horário de almoço; Y = 1, se a agência imobiliária fecha durante o horário de almoço; Sabe-se que: • X tem distribuição B(2, 0.6) e os valores da v.a. Y ocorrem com a mesma probabilidade. • Os acontecimentos {X = 1} e {Y = 0} são independentes. • P (X = 2, Y = 1) = 0.12. (a) Construa a tabela da função de probabilidade conjunta e marginais associada ao par aleatório (X, Y ). 94 CAPÍTULO 10. EXERCÍCIOS (b) As variáveis X e Y são independentes? Justifique. (c) Calcule V (Y − 2X). (d) Qual a probabilidade de venderem 2 imóveis, nos dias em que a agência não fecha durante o período de almoço? 3.4 Numa fábrica produzem-se ratos de computador, que podem sofrer de dois tipos diferentes de defeitos - digamos A e B. Para cada rato produzido definem-se duas variáveis aleatórias, X e Y , representando, respectivamente, o número de defeitos do tipo A e do tipo B a si associados: 0, rato sem defeito do tipo B 0, rato sem defeito do tipo A Y = X= 1, rato com defeito do tipo B 1, rato com defeito do tipo A Sabendo que P (Y = 0) = 0.80, P (X = 1|Y = 1) = 0.7 e P (X = 1|Y = 0) = 0.1: (a) Determine a função de probabilidade conjunta do par aleatório (X, Y ). (b) Justifique se para cada rato o número de defeitos do tipo A é independente do número de defeitos do tipo B. (c) Calcule a P (X < Y ). (d) Qual a probabilidade de o número total de defeitos num qualquer rato da produção ser inferior a 2? 3.5 Suponhamos que M1 e M2 são duas máquinas que funcionam independentemente e sejam X e Y variáveis aleatórias que representam, respectivamente, no diário de avarias de M1 e o no diário de avarias de M2 . Sabendo que: • A máquina M1 nunca avaria mais do que uma vez por dia e, que a máquina M2 avaria, no máximo, duas vezes por dia; • A probabilidade de M1 não avariar é de 0.7; • A probabilidade de M2 não avariar é 0.5 e a de avariar duas vezes é 0.3, Construa a tabela da função de probabilidade conjunta e marginais associada ao par aleatório (X, Y ). 3.6 Sejam X e Y duas v.a.’s tais que V (X) = σ 2 e V (Y ) = 2σ 2 . Considere novas v.a.’s, T = 2X + Y e W = X − Y . Sabendo que V (W ) = σ 2 , calcule: (a) O coeficiente de correlação entre X e Y . (b) V (T ). (c) Cov(W, T ). 3.7 Seja (X, Y ) um par aleatório para o qual V (X) = V (Y ) = σ 2 e coeficiente de correlação ρ. Sejam as novas v.a.’s U = X + Y e W = X − Y . Mostre que V (W ) = 2σ 2 (1 − ρ) e Cov(U, W ) = 0. 3.8 Seja (X, Y ) um par aleatório com a seguinte função densidade probabilidade conjunta: ( f (x, y) = k(x + 2y), 0 < x < 1, 0 < y < 1 0, c.c. (a) Determine k. (b) Determine as funções densidade marginais de X e Y . (c) As variáveis X e Y são independentes? 10.3. VECTORES ALEATÓRIOS (d) Calcule P ( 15 < X < 25 ), e P (X < Y ). (e) Calcule P ( 15 < X < 25 |Y > 12 ). 3.9 Seja (X, Y ) um par aleatório com a seguinte função densidade probabilidade conjunta: f (x, y) = k, x > 0, y < 0, y > x − 2 0, restantes valores de (x, y) (a) Determine k. (b) As variáveis X e Y são independentes? 95 96 10.4 CAPÍTULO 10. EXERCÍCIOS Principais distribuições 4.1 Um consumidor queixou-se às autoridades que no supermercado do Sr. Manuel se vendiam latas de cogumelos com o prazo de validade ultrapassado. No seguimento desta denúncia um inspector das actividades económicas dirigiu-se ao referido supermercado e seleccionou, ao acaso e sem reposição, 6 latas - do total de 50 que o Sr. Manuel ainda tinha para vender. Como na realidade ainda restavam 7 latas com o prazo de validade ultrapassado, qual a probabilidade de o Sr. Manuel ser multado (isto é, de o inspector descobrir pelo menos uma lata com o prazo ultrapassado)? 4.2 De forma a proceder a uma classificação geral do estado das praias Portuguesas, uma comissão Europeia vai inspeccionar 10 praias, seleccionadas ao acaso de entre as 100 existentes. A comissão atribui a classificação de Bom se pelo menos 8 das 10 praias inspeccionadas estiverem em bom estado. Sabendo que, da totalidade das 100 praias, 15 não apresentam boas condições, qual a probabilidade de Portugal: (a) Obter uma classificação de Suficiente, pelo facto da comissão só ter encontrado 7 praias em bom estado? (b) Obter uma boa classificação? (c) Se a comissão só inspeccionasse 5 praias, qual a probabilidade de não encontrar nenhuma em mau estado? (d) Nas praias inspeccionadas quantas se esperam que estejam em bom estado? 4.3 O senhor Sousa tem uma empresa que compra e vende selos e outros artigos de coleccionismo. Ele guarda 20 selos dentro de uma bolsa preta, estando ainda cada um deles metido num envelope opaco. 6 destes selos valem 100 euros cada um e os restantes nada valem. O senhor Sousa, para promover a venda, cobra 20 euros por cada selo, mas não permitindo que o cliente veja o conteúdo do envelope. Suponha que um cliente compra 5 selos. (a) Qual a probabilidade dos cinco selos nada valerem? (b) Qual a probabilidade do cliente não perder nem ganhar dinheiro com a compra? 4.4 Num determinado percurso de avião, a probabilidade de uma pessoa qualquer que aí viaje pedir uma refeição vegetariana é de 0.2. Supondo que em determinado dia viajam 10 pessoas no avião, calcule a probabilidade de: (a) Ninguém pedir refeição vegetariana. (b) Todos pedirem refeição vegetariana. (c) Pelo menos uma pedir refeição vegetariana. 4.5 Determinado exame é constituído por 5 questões de escolha múltipla, em que cada questão tem 4 opções de resposta possíveis - apenas uma sendo a correcta. Supondo que um aluno que vai fazer o exame responde a tudo ao acaso, qual é a probabilidade de ele acertar a mais de metade das questões? Qual é o número médio de respostas correctas? E o seu desvio padrão? 4.6 Sabe-se que 5% dos copos produzidos em determinada fábrica apresentam pequenos defeitos. Seleccionando-se da produção da fábrica, ao acaso, 50 copos, qual a probabilidade de: (a) Nenhum ser defeituoso? (b) Um ser defeituoso? (c) No máximo 1 ser defeituoso? (d) Calcule o número médio de copos defeituosos nesta amostra e o seu desvio padrão. 97 10.4. PRINCIPAIS DISTRIBUIÇÕES 4.7 Na sala de aula de uma escola, 2 meninos lançam ao ar moedas equilibradas. O João faz 10 lançamentos e o Pedro 15. Qual a probabilidade de, no total dos lançamentos, saírem exactamente 12 caras? 4.8 Verifica-se que, relativamente a um determinado dado, quando ele é lançado, a probabilidade de sair um número par é duas vezes superior à probabilidade de sair um número ímpar. (a) Se X representar a v.a. que conta o número de vezes que sai um número par em 4 lançamentos deste dado, determine a sua função de probabilidade. (b) Considere a v.a. Y = “número de lançamentos necessários até obter um número ímpar”. i. Qual o valor médio, coeficiente de variação e moda de Y ? ii. Qual a probabilidade de ser necessário lançar 4 vezes o dado, para obter um número ímpar? iii. Qual a probabilidade de ser necessário lançar pelo menos 2 vezes o dado, para obter um número ímpar? 4.9 Numa prisão existem 1500 presos, dos quais 4% cometeram homicídio por envenenamento. Seleccionando-se aleatoriamente 8 presos para executarem os trabalhos na cozinha da prisão, qual a probabilidade de que 2 deles sejam deste tipo de homicidas? 4.10 Uma lista de clientes de uma empresa é constituída por 1000 endereços de clientes. Destes, 300 compraram nos últimos 3 meses, pelo menos um produto da empresa. Com o objectivo de avaliar da aceitação de um novo produto, 25 clientes daquela lista foram escolhidos ao acaso e sondados acerca do novo produto. Qual a probabilidade de no máximo 2 dos 25 clientes escolhidos, fazerem parte do grupo dos que realizaram alguma compra durante os últimos 3 meses? 4.11 O número de chamadas de emergência que um serviço de ambulâncias recebe por dia é uma v.a. de Poisson. Sabendo que a probabilidade de não haver nenhuma chamada num dia é de 0.15, calcule: (a) a probabilidade de haver apenas uma chamada num dia. (b) a probabilidade de haver 2 chamadas num dia. (c) a probabilidade de haver no máximo 3 chamadas num dia. (d) a probabilidade de haver pelo menos 4 chamadas num dia. (e) o número médio de chamadas por dia, o seu desvio padrão e coeficiente de variação. 4.12 Suponha que X é uma v.a. com distribuição de Poisson. Se P (X = 2) = P (X = 0) e P (X = 3). 2 3 P (X = 1), calcule 4.13 Suponha que, o número de pessoas que utilizam uma caixa multibanco é um processo de Poisson de taxa λ = 10/hora. Calcule; (a) a probabilidade de não ir ninguém à caixa multibanco durante 1 hora. (b) a probabilidade de irem 20 pessoas à referida caixa durante 4 horas. (c) O número médio de visitas à caixa multibanco durante 4 horas e o seu coeficiente de variação. 4.14 Na portagem da ponte 25 de Abril o número de veículos automóveis que passa em cada cabine de pagamento da portagem, por minuto, segue uma distribuição de Poisson com valor médio 1 veículo. Supondo que em determinado minuto estão abertas 10 cabines, qual a probabilidade de serem, no total, atendidos 11 condutores nesse minuto? 4.15 Suponha que num livro de 500 páginas existem 300 erros tipográficos, distribuídos aleatoriamente por todo o livro. Assumindo que o número de erros segue uma distribuição de Poisson, determine a probabilidade de uma dada página conter: (a) 2 erros tipográficos. 98 CAPÍTULO 10. EXERCÍCIOS (b) Pelo menos 2 erros tipográficos 4.16 Um grande armazém de venda de material de vidro de laboratório emprega 100 pessoas. Tem-se verificado que o número de peças quebradas, por empregado e por mês, segue uma distribuição de Poisson de valor médio 1.5. Cada peça partida representa um prejuízo de 40 cêntimos, pelo que o armazém só arca com a despesa de um máximo de 3 peças por mês e por empregado. A partir deste valor é no salário do empregado que se desconta a despesa. (a) Qual a probabilidade de um empregado escolhido ao acaso ter de pagar do seu bolso algum prejuízo num qualquer mês? (b) Considere agora a variável aleatória que representa o prejuízo do armazém, por mês e por empregado. Determine a sua função de probabilidade, qual é esse prejuízo médio e o seu desvio padrão. 4.17 Em determinada empresa 2% das chamadas telefónicas recebidas são enganos. Qual a probabilidade aproximada de, em 200 telefonemas, haver pelo menos 2 enganos? Qual o número médio de enganos? 4.18 Numa feira popular a probabilidade de uma pessoa contrair uma intoxicação alimentar é de 0.0005. Determine a probabilidade de, em 300 pessoas, 2 ficarem intoxicadas. 4.19 Determinado jogo consiste em acertar com um dardo num segmento de recta de comprimento 1 metro, colocado na posição horizontal. Admitindo que se acerta apenas sobre o segmento de recta (e não fora dele) e que se tem igual probabilidade de acertar em qualquer ponto: (a) Identifique a função densidade probabilidade da v.a. X que representa a distância, em metros, do ponto onde se acertou ao extremo esquerdo do segmento. (b) Calcule P (0.4 < X < 0.6). (c) Qual o valor médio do ponto onde se acerta? E o seu coeficiente de variação? (d) Calcule P (0.4 < X < 0.6|X > 0.5). (e) Seja A =]0.4, 0.6[, a região central do segmento de recta compreendida entre os 4cm e os 6cm. Qual a probabilidade de, em 5 lançamentos do dardo, acertar 3 vezes em A? 4.20 Num posto dos correios o tempo (minutos) que a D. Hermínia demora a atender cada um dos seus clientes é uma v.a. exponencial de valor médio 3 minutos. Determine: (a) A função de distribuição de X. (b) A probabilidade de um cliente demorar mais de 5 minutos a ser atendido. (c) A probabilidade de um cliente demorar mais de 3 minutos a ser atendido. (d) A probabilidade de um cliente demorar mais de 5 minutos a ser atendido, sabendo que já está a ser atendido há pelo menos 2 minutos. Compare com a probabilidade anterior e comente. (e) O coeficiente de variação do tempo de atendimento. 4.21 Admita que os clientes chegam a uma loja de acordo com um processo de Poisson de média λ = 2/minuto. Calcule a probabilidade: (a) do tempo entre chegadas consecutivas ser superior a um minuto. (b) do tempo entre chegadas consecutivas ser inferior a quatro minutos. (c) do tempo entre chegadas consecutivas estar entre um e dois minutos. (d) do tempo de espera pelo terceiro cliente ser superior a 5 minutos. 4.22 Demonstre o Teorema 4.29. 4.23 Seja X uma v.a. com distribuição N (100, 202 ). Calcule: (a) P (X < 125). 99 10.4. PRINCIPAIS DISTRIBUIÇÕES (b) P (X > 115). (c) P (60 < X < 140). 4.24 Seja X uma v.a. normal com média 12 e variância 2. Determine c tal que: (a) P (X < c) = 0.1. (b) P (X > c) = 0.25. (c) P (12 − c < X < 12 + c) = 0.95. 4.25 Admita que o Q.I. das pessoas de determinado país é uma v.a. X com distribuição normal de média 90 e desvio padrão 12. Determine: (a) A percentagem da população com Q.I. entre 85 e 95. (b) A percentagem da população com Q.I. entre 78 e 102. (c) O valor c > 0 tal que a percentagem da população com Q.I. entre 90 − c e 90 + c seja de 95%. (d) 10000 pessoas desta população concorreram ao selecto clube SMART, que apenas admite indivíduos com Q.I. superior a 120. Quantas destas pessoas espera o clube vir a admitir? 4.26 A altura (metros) a que crescem os pinheiros é uma v.a. X normalmente distribuída com desvio padrão igual a 1 metro. Supondo que 90% dos pinheiros atingem uma altura de pelo menos 16 metros, qual a altura média dos pinheiros? 4.27 Numa fábrica de embalar arroz este trabalho é executado por uma máquina. A quantidade de arroz (Kg) que entra nos pacotes é uma v.a. X seguindo uma distribuição normal de valor médio µ e desvio padrão σ. (a) Determine σ sabendo que a quantidade embalada difere da sua média por menos de 100g, em 95 % dos casos. (b) Supondo que µ = 1Kg, determine a probabilidade de, em 10 pacotes de arroz embalados por esta máquina, 2 terem menos de 0.9Kg. 4.28 Considere X uma v.a. Normal de valor médio 2 e variância 9. Seja I um intervalo do tipo [4 − a, a]. Determine o valor de a de modo a que P (X ∈ I) = 0.90. 4.29 A altura (metros) a que um atleta salta é uma v.a. Normal de média 1.8m e desvio padrão 20cm. Sabendo que 20% das vezes o atleta consegue saltar acima de h, determine h. 4.30 Num jardim zoológico existem um leão e um tigre que consomem, independentemente um do outro, o mesmo tipo de alimentação - carne de 2a . A quantidade de carne (Kg) que cada um deles come por dia são variáveis aleatórias, representadas por X1 para o leão e X2 para o tigre, respectivamente, normalmente distribuídas com média 4Kg e desvio padrão 0.5Kg. Determine a probabilidade de, num determinado dia: (a) Ambos os animais comerem menos de 3Kg de carne cada. (b) O leão comer mais do que o tigre. (c) Metade do que o leão come juntamente com 3 4 do que o tigre come, exceder os 4Kg. 4.31 Um restaurante vende comida a peso e constatou que a quantidade de comida vendida (Kg) tem distribuição Normal, dependendo os seus parâmetros de o cliente ser homem ou mulher - caso seja mulher a média é de 0.4 Kg e o desvio padrão 0.1 Kg e caso seja homem a média é de 0.5 Kg e o desvio padrão é de 0.2 Kg. Sabendo que os clientes são 55% mulheres e 45% homens, e que a quantidade de comida consumida é independentes entre clientes: (a) Determine a probabilidade de um cliente qualquer consumir menos de 0.5 Kg de comida. 100 CAPÍTULO 10. EXERCÍCIOS (b) Sabendo que um cliente consumiu mais de 0.6 Kg de comida, qual a probabilidade de ser homem? (c) Num grupo de 4 mulheres e 6 homens qual a probabilidade de se consumir menos de 5 Kg de comida? 4.32 (Teste de PE 2006/07) Um elevador está preparado para suportar uma carga até 450 kg. Sempre que este valor é ultrapassado o elevador não funciona. Um estudo recente indica que o peso, das pessoas que utilizam esse elevador, é uma variável aleatória com distribuição Normal de valor médio 70 kg. (a) Sabendo que a probabilidade de uma pessoa (que utiliza o elevador) pesar menos de 60 kg é 0.0228, determine o desvio padrão desta variável aleatória. (b) Se entrarem 6 pessoas no elevador, qual a probabilidade de o elevador não funcionar devido ao excesso de peso? 4.33 (Teste de P.E. D 2005/06) Um foguete espacial é constituído por 3 partes distintas, cápsula, corpo e depósitos. Representem as v.a.’s X, Y e W o peso da cápsula, o peso do corpo do foguete e o peso dos depósitos, respectivamente, em toneladas. Sabe-se que X ∼ N (5, 1), Y ∼ N (10, 22 ) e W ∼ N (7, 22 ), sendo as três variáveis independentes entre si. (a) Qual a probabilidade de o peso da cápsula estar compreendido entre 3 e 7 toneladas? (b) Qual o peso h que o corpo do foguete ultrapassa em 2.5% das vezes? (c) Qual a probabilidade de o peso da cápsula mais o peso dos depósitos excederem o peso do corpo do foguete? 4.34 Admita que X é uma v.a. com distribuição t com 14 graus de liberdade, X ∼ t14 . Determine o valor de c, tal que: (a) P (X ≤ c) = 0.75; (b) P (X ≤ c) = 0.05; (c) P (|X| > c) = 0.4. 4.35 Suponha que X é uma v.a. com distribuição χ2 com 10 graus de liberdade, X ∼ χ210 . Determine o valor de c, tal que: (a) P (X ≤ c) = 0.95; (b) P (X ≤ c) = 0.05. 10.5. TEOREMA LIMITE CENTRAL 10.5 101 Teorema Limite Central 5.1 Numa loja de conveniência cada pessoa gasta, em média, 10e, com um desvio padrão de 3.75e. Qual a probabilidade de 100 clientes gastarem mais de 1100e, admitindo que os gastos são independentes de pessoa para pessoa? 5.2 O número de sismos no Japão, por mês, é uma v.a. com média 5 sismos e desvio padrão 2 sismos. Admitindo que os sismos são independentes entre si, determine a probabilidade de nos próximos 40 anos haver no máximo 2300 sismos. 5.3 Uma empresa vende caixas com biscoitos e, quando lhe é solicitado, envia-as pelo correio. Para evitar pesar estas caixas, cobra sempre o valor de portes de correio correspondente a admitir que qualquer caixa pesa 2508g. Cada caixa leva 100 biscoitos e o peso da embalagem plástica é desprezável. Se soubermos que o peso de cada biscoito é variável mas que em média pesa 25g com um desvio padrão de 8g, determine a probabilidade do valor pago em portes de correio com o envio de uma caixa ser inferior ao valor que pagaria, caso a caixa fosse pesada. 5.4 Ao adicionar números, um computador arredonda cada número para o inteiro mais próximo. Admita que os erros cometidos são v.a.’s independentes e identicamente distribuídas (i.i.d.) com valor médio igual a 0 e variância igual a 1/12. Se 1200 números forem adicionados, qual a probabilidade aproximada de que o erro total cometido não ultrapasse 15.4? 5.5 Envelopes de avião são empacotados em grupos de 100, sendo depois pesados. Supondo que o peso de cada envelope é uma v.a. com valor médio igual a 1 grama e desvio padrão de 0.05 g, independentemente de envelope para envelope, determine: (a) a probabilidade de que um pacote, com exactamente 100 envelopes, pese mais de 100.5 g. (b) a probabilidade de que a média dos pesos dos 100 envelopes de um pacote, diste do respectivo valor médio por uma quantidade superior a 0.01g. 5.6 Numa determinada estufa de produção de tulipas vão-se semear 240 bolbos desta flor. Sabe-se que em média cada bolbo produz 4 flores, com um desvio padrão de 2 flores. Qual a probabilidade aproximada de se conseguir obter uma produção final de mais de 1000 tulipas? Justifique. 5.7 Na população das mulheres cerca de 20% estão grávidas. Supondo que se selecciona ao acaso 250 mulheres, qual a probabilidade de que 50 estejam grávidas? E qual a probabilidade de que pelo menos 50 estejam grávidas? 5.8 Um aviário vende ovos em caixas de 1 dúzia, verificando-se que cerca de 1% dos ovos se partem no transporte para os seus locais de comercialização. Num contentor com 80 caixas qual a probabilidade de se encontrarem entre 5 e 15 ovos partidos? 5.9 O número de utentes diários de uma máquina de venda de selos tem uma distribuição de Poisson com valor médio 20. Determine a probabilidade de num mês de 30 dias: (a) Usarem a máquina entre 580 e 621 pessoas. (b) Usarem a máquina 580 pessoas. 5.10 Sabe-se que o número de automóveis que entram numa auto-estrada num período de 10 segundos é uma v.a. com distribuição de Poisson de valor médio 3. Qual a probabilidade aproximada de entrarem 20 ou mais automóveis durante 30 segundos? 102 10.6 CAPÍTULO 10. EXERCÍCIOS Estimação Pontual 6.1 Considere a população formada pelo número de filhos por família (X) num determinado país, em que X = 0, 1, 2, 3, 4 (não há famílias com mais de 4 filhos). Suponha que se conhece a sua distribuição de probabilidade: 0 1 2 3 4 X 0.15 0.25 0.30 0.20 0.10 (a) Quais os valores populacionais de µ e σ 2 ? (b) Desta população recolhe-se uma amostra aleatória constituída por 2 famílias - (X1 , X2 ). Qual a distribuição de probabilidade de X1 e X2 e os respectivos parâmetros µ e σ 2 ? (c) Suponha que recolheu a seguinte amostra aleatória de 10 famílias: (1, 3, 0, 0, 2, 3, 0, 2, 4, 1). Com base nesta amostra estime pontualmente µ e σ 2 . Estime ainda o erro padrão da estimativa de µ. Comente. 6.2 Considere que se seleccionou uma amostra aleatória (X1 , X2 , . . . , Xn ) de uma população com valor médio µ e variância σ 2 . Pn Xi é estimador centrado e consistente da média populacional. (a) Mostre que X = i=1 n 2X1 + 3X2 + 5X3 X1 + Xn e θ̂2 = também são estimadores centrados de (b) Mostre que θ̂1 = 2 10 µ. Qual é melhor? São consistentes? (c) Mostre que (X)2 não é estimador centrado de µ2 . 6.3 Suponha que seleccionou uma amostra aleatória (X1 , X2 , . . . , Xn ) de uma população com distribuição U (0, θ), isto é, com função densidade: 1 θ, 0 ≤ x ≤ θ f (x) = 0, c.c. (a) Mostre que 2X é o estimador dos momentos de θ. (b) Verifique se o estimador da alínea anterior é centrado e consistente. (c) Dada a amostra (1.215, P 1.580, 0.726, 2.843, 3.394, 0.612, 2.621, 1.181, 2.930, 0.317), estime o valor de θ. Nota: xi = 17.42. 6.4 (Teste de P.E. - 2006/07) Seja (X1 , X2 , . . . , Xn ) uma amostra aleatória, extraída de uma população com distribuição Geométrica. (a) Determine o estimador de p usando o método dos momentos e o método da máxima verosimilhança. (b) Determine o estimador de máxima verosimilhança do valor médio de X. Verifique se o estimador é consistente para a estimação do valor médio. 6.5 Considere a experiência aleatória que consiste em contar o número de vezes que se lança um dado (eventualmente não equilibrado) até sair um número par. Em 15 realizações da experiência obtiveram-se os seguintes resultados: 1 9 2 2 1 9 2 3 1 1 4 1 7 2 1 (a) Estime a probabilidade de sair um número par (num lançamento do dado). (b) Estime a probabilidade de ser necessário lançar mais de 2 vezes o dado para obter um número par. 103 10.6. ESTIMAÇÃO PONTUAL 6.6 Considere a amostra aleatória (X1 , X2 , . . . , Xn ) de uma população com distribuição Bin(r, p), com r conhecido. (a) Determine o estimador dos momentos de p. (b) Verifique que a função log-verosimilhança é: n n n X X X r l(p) = ln + ln(p) xi + ln(1 − p)(nr − xi ), xi i=1 i=1 i=1 se xi ∈ {0, 1, . . . , r}. (c) Determine o estimador de máxima verosimilhança de p. (d) Verifique se os estimadores obtidos, nas alíneas anteriores, são centrados e consistentes. 6.7 Considere a amostra aleatória (X1 , X2 , . . . , Xn ) de uma população com com função densidade, f (x) = θ , xθ+1 x>1 (θ > 0). θ (a) Sabendo que E(X) = θ−1 , θ > 1, determine o estimador dos momentos de θ. (b) Verifique que a função log-verosimilhança é dada por: l(θ) = n ln(θ) − (θ + 1) n X ln(xi ), se xi > 1, i = 1, . . . , n. i=1 (c) Determine o estimador de máxima verosimilhança de θ. (d) Determine o estimador de máxima verosimilhança de β = 1/θ. 6.8 Sabe-se que a idade de determinada camada do subsolo segue uma distribuição Normal com média de 0.5 milhões de anos e um desvio padrão de 20000 anos. Seleccionadas ao acaso 10 amostras de subsolo calcule a probabilidade de a média amostral das suas idades ser superior a 490000 anos. 6.9 Considere uma amostra aleatória de dimensão 25, extraída de uma população Normal de média 100 e desvio padrão 10. (a) Qual a probabilidade de a média amostral cair no intervalo de E(X) − 1.96 × SE(X) a E(X) + 1.96 × SE(X)? (b) Quanto deverá ser o tamanho amostral tal que a amplitude do intervalo definido em (a) diminua para 2. 6.10 O tempo de espera em pista para a descolagem de cada avião no aeroporto de Lisboa é uma v.a. com valor médio 4 minutos e desvio padrão 2.5 minutos. Suponha que se selecciona ao acaso 50 aviões, para se registarem os seus correspondentes tempos de espera. Calcule a probabilidade de a média dos tempos de espera exceder os 5 minutos. 6.11 Assuma que o número de ovos que as tartarugas verdes depositam nas praias, em cada desova, é uma v.a. de P oisson, com valor médio 15 ovos. Seleccionando ao acaso uma amostra de 100 tartarugas verdes, qual a probabilidade de que a média do número de ovos destas esteja compreendido entre o seu valor médio e ± 3 vezes o seu erro padrão. 6.12 Suponha que o tempo de vida de determinada espécie de burros é uma v.a. com distribuição exponencial, de valor médio 25 anos. Seleccionando ao acaso uma amostra de 40 burros desta espécie, qual a probabilidade de que a média dos seus tempos de vida seja inferior a 20 anos? 6.13 No país das Maravilhas a proporção de loucos é de 0.45. Suponha que se pretende seleccionar uma amostra aleatória de 500 habitantes deste país. Qual a probabilidade de a proporção de loucos que vão calhar na amostra exceder 0.5? 6.14 Numa população Normal de média desconhecida e desvio padrão 5 calcule a probabilidade de a variância de uma amostra aleatória de dimensão 20 dessa população estar compreendida entre 26 e 58. 104 CAPÍTULO 10. EXERCÍCIOS 10.7 Estimação por Intervalo de Confiança 7.1 Para avaliar o peso médio das maçãs produzidas por um determinado agricultor analisaram-se 20 maçãs seleccionadas ao acaso da produção. Estas resultaram num peso médio de x̄ = 320g. Assuma que os pesos das maçãs têm distribuição Normal com desvio padrão σ = 20g. (a) Construa um intervalo de confiança a 90% para a média do peso. (b) Qual deve ser o tamanho da amostra de forma a que a amplitude do correspondente intervalo de confiança a 90% para a média seja de 1g? E 5g? Comente. 7.2 A quantidade de combustível dispendido num percurso de Lisboa a Faro (em litros) é uma variável aleatória normal. (a) Assuma que em 8 viagens Lisboa-Faro seleccionadas ao acaso se verificou um gasto médio de combustível de 36 litros e um desvio padrão de 10 litros. Construa intervalos de confiança para a média a 90% e a 95% e compare-os. (b) Assuma agora que foi em 50 viagens Lisboa-Faro, seleccionadas ao acaso, que se verificou um gasto médio de combustível de 36 litros e um desvio padrão de 10 litros. Construa intervalos de confiança para a média a 90% e a 95% e compare com os anteriores. Comente. 7.3 O nível de poluição do ar de determinada cidade (medido em concentração de monóxido de carbono no ar) distribui-se normalmente. Recolheram-se os seguintes valores da referida concentração em 10 dias diferentes (em ppm): 0.09, 0.33, 0.01, 0.25, 0.20, 0.05, 0.03, 0.18, 0.13, 0.24. Com base nesta amostra determine um intervalo de confiança a 99% para a concentração média de monóxido de carbono na atmosfera. 7.4 A quantidade de gordura em 100g de carne de determinado tipo de vacas, medido em gramas, tem desvio padrão 8g. Qual deve ser o tamanho de uma amostra aleatória a seleccionar de forma a que a amplitude de um intervalo de confiança a 95% para a gordura média por 100g de carne seja inferior a 2.5g? Refira eventuais pressupostos que teve de fazer. 7.5 Construa um intervalo de confiança a 95% para a temperatura média de uma determinada sala de espera, com base numa amostra de temperaturas recolhidas em 35 dias diferentes que resultaram nos valores x̄ = 22.1o C e s = 3.2o C. 7.6 A tensão (MegaPascal) suportada por uma determinada barra de aço é uma variável aleatória com desvio padrão igual a 30 P MPa. Com base numa amostra aleatória de n tensões observadas, para as quais se verificou que xi = 10000MPa, construiu-se um intervalo de confiança a 95% para a tensão média suportada, cujo extremo superior era de 208.3MPa. Determine o extremo inferior do referido intervalo e diga quanto vale o n, assumindo que n > 30. 7.7 (Exame de P.E. D - 2008/09) A população das estaturas dos alunos da FCT, em metros, segue uma distribuição Normal. Recolheu-se a seguinte amostra aleatória de estaturas de 40 alunos desta faculdade: 1.79 1.75 1.78 1.76 1.80 1.74 1.78 1.70 1.72 1.60 1.69 1.63 1.82 1.77 1.78 1.71 1.57 1.82 1.52 1.70 1.78 1.82 1.72 1.64 1.78 1.75 1.84 1.59 1.66 1.66 1.65 1.63 1.78 1.84 1.71 1.74 1.80 1.77 1.79 1.71 correspondendo a uma média amostral de 1.73 e a um desvio padrão amostral de 0.08. (a) Indique uma estimativa pontual, com base nesta amostra, para a verdadeira estatura média populacional. (b) Deduza e calcule um intervalo de confiança a 92% para a estatura média populacional. 7.8 O tempo médio (segundos) de reacção de uma determinada raça de cães a um certo estímulo tem interesse para um determinado Ptreinador.2 Assim ele2 resolveu testar 32 cães escolhidos aleatoriamente tendo observado x̄ = 1.2s e (xi − x̄) = 15.5s . 105 10.7. ESTIMAÇÃO POR INTERVALO DE CONFIANÇA (a) Construa um intervalo de confiança a 95% para o tempo médio de reacção dos cães. (b) Suponha que só se conseguiu obter uma amostra de 15 cães, tendo resultado em x̄ = 1.1s P e (xi − x̄)2 = 15.9s2 . Construa, para este caso, um intervalo de confiança a 95% para o tempo médio de reacção dos cães, referindo eventuais pressupostos que tenha tido de fazer. 7.9 Numa fábrica de embalagem de queijo em fatias seleccionaram-se aleatoriamente 100 embalagens, das quais se verificaram que 18 tinham peso inferior ao suposto - sendo por isso inadequadas. Construa um intervalo de confiança a 98%para a verdadeira proporção de pacotes inadequados na produção total. 7.10 De 200 casos de pessoas com cancro do cólon, aleatoriamente detectadas, 12 morreram após 5 anos da detecção. (a) Estime pontualmente a probabilidade de uma pessoa que contraia o cancro do cólon morrer após 5 anos da sua detecção. (b) Quanto deveria aumentar ao tamanho da sua amostra aleatória de forma a que a largura do intervalo de confiança a 90% para a probabilidade considerada na alínea anterior fosse inferior a 0.01? 7.11 O tempo (horas) que o Pedro dispende em filas de trânsito, por dia, é uma v.a. Normal. Seleccionando aleatoriamente 15 dias registaram-se os seguintes valores de espera: 1.5 1.0 1.0 2.0 1.5 1.25 1.0 2.0 1.5 1.25 1.75 0.5 1.0 1.5 1.25 Determine um intervalo de confiança a 99% para a variância do tempo de espera. 7.12 Um profissional de bowling jogou 8 partidas num torneio, tendo obtido as seguintes pontuações: 117.0 220.2 199.5 237.2 249.5 179.8 259.2 248.5 Admitindo a normalidade das pontuações, construa um intervalo de confiança a 95% para a variância e para o desvio padrão (este último fornece uma medida da consistência da prestação do jogador). 106 10.8 CAPÍTULO 10. EXERCÍCIOS Teste de Hipóteses 8.1 Uma fábrica de gelados afirma que a procura do gelado de chocolate no verão, por dia e em euros, é uma v.a. Normalmente distribuída com valor médio e200 e desvio padrão e40. Numa amostra aleatória constituída por 10 dias seleccionados ao acaso do período de verão verificou-se que x̄ = 216. (a) Teste, ao nível de significância 5%, se de facto o consumo médio de gelado de chocolate no verão é de e200 por dia. (b) Teste, ao ao nível de significância 5%, se de facto o consumo médio de gelado de chocolate no verão é menor do que e200 por dia. (c) Qual a potência do teste, da alínea anterior, se µ = 190. (d) Resolva as duas primeiras alíneas usando o valor-p. 8.2 Um produtor de azeite afirma que a acidez média do seu azeite é de 0.9o . De forma a confirmar tal facto recolheu-se uma amostra aleatória da sua produção de azeite, tendo-se medido os seguintes valores de acidez: 0.9 0.8 0.7 1.1 0.9 0.9 1.0 0.7 1.5 1.1. Admitindo a Normalidade da acidez do azeite: (a) Teste, ao nível de significância 1%, se o produtor tem razão. (b) Teste, ao ao nível de significância 1%, se a acidez média é superior a 0.9o . 8.3 Um biólogo pretende demonstrar que o peso médio de uma determinada espécie de coelhos - coelhos anões - é superior a 250g. Para tal seleccionou aleatoriamente 40 coelhos, tendo obtido uma média dos pesos de 255.3g e um desvio padrão de 30g. Teste ao nível de significância 10% se o biólogo está certo, assumindo a Normalidade dos pesos dos coelhos. 8.4 A Inês recebe, para além do seu salário, vencimento correspondente a 2 horas extra que devia fazer todos os dias. Contudo ela está desconfiada que tem andado a trabalhar, em média, mais do que 2 horas extra. Como a empresa onde trabalha regista sempre a hora de entrada e de saída dos seus funcionários, ela seleccionou aleatoriamente 12 dias de trabalho passados e registou os seguintes valores relativos ao horário extra: x̄ = 2.3h e s = 0.5h. Admitindo a Normalidade do tempo extra de trabalho, teste a um nível de significância de 5%, se as suas suspeitas se confirmam. 8.5 Uma companhia de seguros tem previsto no seu orçamento um total de 5000e/dia para pagar as indemnizações dos seus segurados. De forma a confirmar se o valor médio das indemnizações pagas por diaP está bem previsto seleccionaram-se, de anos anteriores, 100 dias, tendo-se verificado x̄ = 5625e e (xi − x̄)2 = 6187500e2 . Teste, ao nível de significância 5%, se a previsão se adequa. 8.6 Numa fábrica de massas embalam-se pacotes de esparguete que deveriam ter peso médio de 500g. O peso dos pacotes é uma v.a. Normal com variância σ 2 = 225g 2 . De forma a confirmar o peso médio destes pacotes, seleccionaram-se ao acaso 40 embalagens que tinham um peso médio de 495g. Teste, ao nível de significância 1%, se o peso médio das embalagens é menor do que as 500g indicadas. 8.7 Seja X uma v.a. com distribuição Normal de valor médio µ e desvio padrão σ. A partir de uma amostra de dimensão 30, retirada da população, obtiveram-se os seguintes resultados: 30 X i=1 xi = 64.0 30 X (xi − x̄)2 = 84.4 i=1 (a) Teste, ao nível de significância 1%, as hipóteses H0 : µ = 2 vs H1 : µ > 2. (b) Suponha que está a testar a hipótese H0 : µ = 2 contra a hipótese H1 : µ = 2.5 e que rejeita a hipótese nula se X̄30 > 2.3. Calcule as probabilidades dos erros de 1a e 2a espécie do teste, se σ = 1. 8.8 Numa operação stop da brigada de trânsito, de 120 camiões TIR que foram parados, 42 iam com excesso de peso. Com base nesta amostra aleatória, teste a hipótese de que a proporção deste tipo de camiões, que circulam nas nossas estradas em situação ilegal, ultrapassa os 30%. Use um nível de significância de 10%. 107 10.8. TESTE DE HIPÓTESES 8.9 (Exame de P.E. D - 2008/09) A população das estaturas dos alunos da FCT, em metros, segue uma distribuição Normal. Recolheu-se a seguinte amostra aleatória de estaturas de 40 alunos desta faculdade: 1.79 1.75 1.78 1.76 1.80 1.74 1.78 1.70 1.72 1.60 1.69 1.63 1.82 1.77 1.78 1.71 1.57 1.82 1.52 1.70 1.78 1.82 1.72 1.64 1.78 1.75 1.84 1.59 1.66 1.66 1.65 1.63 1.78 1.84 1.71 1.74 1.80 1.77 1.79 1.71 correspondendo a uma média amostral de 1.73 e a um desvio padrão amostral de 0.08. Teste a hipótese de que a verdadeira proporção de alunos com estatura superior ou igual a 1.82m nesta população é maior que 0.2. Use um nível de significância de 5%. 8.10 Determinada desordem genética no sangue pode ser prevista com base num teste de sangue muito simples. De forma a ter uma noção da proporção de pessoas que na população possam vir a ter esta desordem, testaram-se 100 pessoas, seleccionadas ao acaso, para as quais 14 testes deram positivo. Efectue um teste de hipóteses, usando um nível de significância 5%, sobre se percentagem de pessoas com tal desordem é inferior a 10%. 8.11 No fabrico de parafusos admite-se, relativamente aos seus comprimentos, uma variabilidade máxima de 0.5mm2 . Recolheu-se uma amostra aleatória de 20 parafusos que se verificou terem s2 = 0.3. Admitindo a Normalidade do comprimento dos parafusos, teste, ao nível de significância de 5% se a especificação sobre a variabilidade do comprimento dos parafusos está a ser respeitada. 8.12 Com base na amostra aleatória seguinte, teste H0 : σ = 1.3 vs H1 : σ 6= 1.3, a um nível de significância de 1%: 2.0 3.2 5.0 1.8 3.4 2.6 8.13 A resistência de um determinado metal é dito ter uma variabilidade inferior a 0.01 ohm2 . Teste esta hipótese, a um nível de significância 10%, usando a seguinte amostra aleatória de resistências medidas para este metal: 0.14, 0.138, 0.143, 0.142, 0.144, 0.137 8.14 Considere novamente a amostra do exercício 8.9. Podemos considerar a amostra aleatória? 8.15 Considere a seguinte tabela de frequências de uma v.a. X: Valores Frequência 0 4 1 21 2 10 3 13 4 2 (a) É a distribuição Binomial com n = 5 e p = 0.25 um modelo apropriado? Teste esta hipótese ao nível de significância de 5%. (b) Determine um valor aproximado para o valor-p. 8.16 O gerente de uma loja pretende saber se os tempos entre chegadas de clientes à sua loja se comporta probabilisticamente segundo uma distribuição exponencial. Para tal, registou os tempos entre chegadas consecutivas de clientes numa manhã. Esses tempos (em minutos) foram: 3.6 10.1 21.2 3.8 6.2 22.1 18.8 7.4 12.7 4.2 7.9 1.6 14.2 4.6 16.8 3.0 38.0 1.4 0.1 5.4 3.8 3.3 3.0 14.0 10.8 8.2 3.1 13.9 6.1 3.5 10.5 9.4 8.3 0.7 4.1 (a) Podemos considerar a amostra aleatória? (b) Teste a conjectura do gerente ao nível de significância 0.1. Nota: Numa distribuição exponencial, o estimador de máxima verosimilhança de λ é dado por λ̂ = X1 . 108 CAPÍTULO 10. EXERCÍCIOS 8.17 Teste a um nível de significância 5% que a seguinte amostra aleatória provêm de uma distribuição Normal(3, 22 ): 1.14, 3.11, 3.55, 2.81, 6.28, 1.61, 4.36, 0.90, 0.81, −0.18, 2.08, 2.68, 2.12, −0.33, 2.57, 3.55, 1.81, 2.56, 5.56, 2.46, 4.20, 1.63, 4.21, 4.85, 4.24, 3.98, 1.40, 3.00, 2.01, 3.31 8.18 Pensa-se que a altura a que os eucaliptos chegam aos 20 anos é uma v.a. Normal de média 2m. Para o confirmar seleccionou-se uma amostra aleatória de 30 eucaliptos, tendo observado as seguintes alturas: 0.2, 0.8, 3.6, 1.0, 0.2, 4.3, 3.1, 0.4, 3.3, 3.1, 3.2, 5.3, 1.7, 0.2, 2.8, 0.4, 0.5, 3.0, 1.2, 4.2, 4.8, 3.4, 2.1, 2.5, 2.4, 2.1, 0.8, 3.5, 1.7, 1.3 Teste, ao nível de significância 1%, a conjectura referida. 8.19 (Teste de P.E. D - 2008/09) Teste a um nível de significância 5% que a seguinte amostra aleatória provém de uma população com função de distribuição F , definida por: 0, x<0 2 2x − x , 0 ≤ x<1 F (x) = 1, x≥1 0.10, 0.33, 0.90, 0.43, 0.22, 0.42, 0.46, 0.68, 0.12, 0.51, 0.18, 0.03, 0.48, 0.24, 0.47 0.11, 0.52, 0.47, 0.32, 0.40, 0.01, 0.34, 0.32, 0.57, 0.51, 0.12, 0.06, 0.40, 0.07, 0.40 Para a realização do teste considere as classes ]0; 0.25], ]0.25; 0.5], ]0.5; 0.75] e ]0.75; 1[. 109 10.9. REGRESSÃO LINEAR 10.9 Regressão Linear 9.1 Determinada empresa está interessada em contabilizar o tempo que o ar condicionado está ligado no verão, por dia, mediante a temperatura exterior (o C). Assim, seleccionaram-se 14 dias ao acaso, para os quais se mediram as temperaturas (x) e se registarem o número de horas de utilização do ar condicionado (Y ): i xi Yi 1 29 10.5 2 28 9.0 3 29 10.4 4 35 18.6 5 26 5.5 6 25 5.2 7 32 11.6 8 31 10.4 9 34 17.8 10 27 9.9 11 33 13.7 12 33 14.2 13 32 12.3 14 28 8.7 (a) Disponha os dados em gráfico. (b) Estime a recta de regressão linear simples. Refira quais os pressupostos efectuados. Desenhe-a no gráfico anterior. (c) Comente a qualidade da estimação efectuada, com base no coeficiente de determinação. (d) Teste a hipótese de o verdadeiro declive da recta de regressão ser nulo. Comente o resultado à luz da alínea anterior. (e) Para uma temperatura exterior de 30o C qual o número de horas que estima que o ar condicionado esteja a trabalhar? E para uma temperatura de 40o C? 9.2 Pretende-se modelar a velocidade do vento Y , medida em Km/h, com a altitude x a que se faz a medição (m). Para tal registaram-se, para 9 valores de altitude, os correspondentes valores da velocidade do vento: i xi Yi X 1 100 4 2 250 9 3 500 15 Yi2 = 14675 Ȳ = 32.78 X 4 750 16 5 1000 20 6 1250 46 7 1500 54 x2i = 12760000 x̄ = 1011.11 8 1750 59 X 9 2000 72 Yi xi = 427900 (a) Ajuste um modelo de regressão linear simples aos dados. O que pode dizer sobre a qualidade do ajuste? (b) Determine um intervalo de confiança a 95% para o verdadeiro declive da recta de regressão. (c) Use o resultado da alínea anterior para testar a hipótese de que o verdadeiro declive da recta de regressão é nulo. 9.3 (Exame de P.E. D - 2005/06) Pretende-se averiguar se existe uma relação directa entre a proximidade com campos de futebol da residência de casais e a taxa de divórcio. Assim registaram-se, em 5 locais seleccionados ao acaso, o correspondente número de estádios de futebol num raio de 50Km (x) e a respectiva taxa de divórcio por 1000 habitantes registada nessas localidades (Y ): No de campos de futebol, xi Taxa de divórcio (por 1000 habitantes), Yi 5 X i=1 xi = 14; 5 X i=1 x2i = 66; 5 X i=1 Yi = 17.1; 5 X i=1 0 2.2 Yi2 = 63.19; 1 2.5 5 X 2 3.5 5 4.1 6 4.8 Yi xi = 58.8; SQR = 0.2585075. i=1 (a) Ajuste uma recta de regressão linear a estes dados. Que pode dizer da qualidade do ajuste? (b) Diga por suas palavras como interpreta o valor de β̂1 obtido. (c) Teste a hipótese do verdadeiro valor declive da recta de regressão, β1 , ser nulo, a um nível de significância 10%. O resultado está de acordo com a qualidade do ajuste discutida em (a)? (d) Numa localidade com 3 estádios de futebol na sua proximidade (menos de 50Km) quanto prevê que valha a correspondente taxa de divórcio? 110 CAPÍTULO 10. EXERCÍCIOS 9.4 (Exame de P.E. - 2006/07) Com o objectivo de estudar a qualidade do ar na região de Lisboa, pretende-se modelar a quantidade Y de Ozono troposférico (O3 ), com a quantidade x de partículas em suspensão com diâmetro aerodinâmico inferior a 10 µm (P M10 ). Para tal, registaram-se os seguintes dados: xi yi X 60.5 124.2 78.8 158 xi = 724.8; 89.8 177.1 X 80.9 185.6 74.8 179.2 x2i = 53414.92; 49.9 145.7 97.5 163.7 SY Y = 18620.05; 92.5 188.8 X 36.5 122.2 18.1 75.4 xi yi = 114890.35; 29.6 94.8 15.9 80.3 σ̂ 2 = 237.44; (a) Ajuste um modelo de regressão linear simples aos dados. Refira quais os pressupostos do modelo. (b) Comente a qualidade do modelo. (c) Teste, ao nível de significância de 5%, a hipótese de o declive da recta de regressão ser nulo. (d) Prove que qualquer recta dos mínimos quadrados passa por (x, y). Capítulo 11 Tabelas Função de distribuição Normal reduzida Φ(z) = P (Z ≤ z) = z .0 .1 .2 .3 .4 .5 .6 .7 .8 .9 1.0 1.1 1.2 1.3 1.4 1.5 1.6 1.7 1.8 1.9 2.0 2.1 2.2 2.3 2.4 2.5 2.6 2.7 2.8 2.9 3 0 .5000 .5398 .5793 .6179 .6554 .6915 .7257 .7580 .7881 .8159 .8413 .8643 .8849 .9032 .9192 .9332 .9452 .9554 .9641 .9713 .9772 .9821 .9861 .9893 .9918 .9938 .9953 .9965 .9974 .9981 .9987 1 .5040 .5438 .5832 .6217 .6591 .6950 .7291 .7611 .7910 .8186 .8438 .8665 .8869 .9049 .9207 .9345 .9463 .9564 .9649 .9719 .9778 .9826 .9864 .9896 .9920 .9940 .9955 .9966 .9975 .9982 .9990 Z z √1 −∞ 2π 2 .5080 .5478 .5871 .6255 .6628 .6985 .7324 .7642 .7939 .8212 .8461 .8686 .8888 .9066 .9222 .9357 .9474 .9573 .9656 .9726 .9783 .9830 .9868 .9898 .9922 .9941 .9956 .9967 .9976 .9982 .9993 exp − 12 t2 dt 3 .5120 .5517 .5910 .6293 .6664 .7019 .7357 .7673 .7967 .8238 .8485 .8708 .8907 .9082 .9236 .9370 .9484 .9582 .9664 .9732 .9788 .9834 .9871 .9901 .9925 .9943 .9957 .9968 .9977 .9983 .9995 4 .5160 .5557 .5948 .6331 .6700 .7054 .7389 .7704 .7995 .8264 .8508 .8729 .8925 .9099 .9251 .9382 .9495 .9591 .9671 .9738 .9793 .9838 .9875 .9904 .9927 .9945 .9959 .9969 .9977 .9984 .9997 Nota: Para z ≥ 4, Φ(z) ≈ 1. 111 5 .5199 .5596 .5987 .6368 .6736 .7088 .7422 .7734 .8023 .8289 .8531 .8749 .8944 .9115 .9265 .9394 .9505 .9599 .9678 .9744 .9798 .9842 .9878 .9906 .9929 .9946 .9960 .9970 .9978 .9984 .9998 6 .5239 .5636 .6026 .6406 .6772 .7123 .7454 .7764 .8051 .8315 .8554 .8770 .8962 .9131 .9279 .9406 .9515 .9608 .9686 .9750 .9803 .9846 .9881 .9909 .9931 .9948 .9961 .9971 .9979 .9985 .9998 7 .5279 .5675 .6064 .6443 .6808 .7157 .7486 .7794 .8078 .8340 .8577 .8790 .8980 .9147 .9292 .9418 .9525 .9616 .9693 .9756 .9808 .9850 .9884 .9911 .9932 .9949 .9962 .9972 .9979 .9985 .9999 8 9 .5319 .5359 .5714 .5753 .6103 .6141 .6480 .6517 .6844 .6879 .7190 .7224 .7517 .7549 .7823 .7852 .8106 .8133 .8365 .8389 .8599 .8621 .8810 .8830 .8997 .9015 .9162 .9177 .9306 .9319 .9429 .9441 .9535 .9545 .9625 .9633 .9699 .9706 .9761 .9767 .9812 .9817 .9854 .9857 .9887 .9890 .9913 .9916 .9934 .9936 .9951 .9952 .9963 .9964 .9973 .9974 .9980 .9981 .9986 .9986 .9999 1.0000 CAPÍTULO 11. TABELAS 112 g.l. .158 .142 .137 .134 .132 .131 .130 .130 .129 .129 .129 .128 .128 .128 .128 .128 .128 .127 .127 .127 .127 .127 .127 .127 .127 .127 .127 .127 .127 .127 .126 .55 .325 .289 .277 .271 .267 .265 .263 .262 .261 .260 .260 .259 .259 .258 .258 .258 .257 .257 .257 .257 .257 .256 .256 .256 .256 .256 .256 .256 .256 .256 .253 .6 .510 .445 .424 .414 .408 .404 .402 .399 .398 .397 .396 .395 .394 .393 .393 .392 .392 .392 .391 .391 .391 .390 .390 .390 .390 .390 .389 .389 .389 .389 .385 .65 .727 .617 .584 .569 .559 .553 .549 .546 .543 .542 .540 .539 .538 .537 .536 .535 .534 .534 .533 .533 .532 .532 .532 .531 .531 .531 .531 .530 .530 .530 .524 .7 1.00 .816 .765 .741 .727 .718 .711 .706 .703 .700 .697 .695 .694 .692 .691 .690 .689 .688 .688 .687 .686 .686 .685 .685 .684 .684 .684 .683 .683 .683 .674 .75 1.38 1.06 .978 .941 .920 .906 .896 .889 .883 .879 .876 .873 .870 .868 .866 .865 .863 .862 .861 .860 .859 .858 .858 .857 .856 .856 .855 .855 .854 .854 .842 .8 1.96 1.39 1.25 1.19 1.16 1.13 1.12 1.11 1.10 1.09 1.09 1.08 1.08 1.08 1.07 1.07 1.07 1.07 1.07 1.06 1.06 1.06 1.06 1.06 1.06 1.06 1.06 1.06 1.06 1.05 1.04 α .85 3.08 1.89 1.64 1.53 1.48 1.44 1.41 1.40 1.38 1.37 1.36 1.36 1.35 1.35 1.34 1.34 1.33 1.33 1.33 1.33 1.32 1.32 1.32 1.32 1.32 1.31 1.31 1.31 1.31 1.31 1.28 .9 6.31 2.92 2.35 2.13 2.02 1.94 1.89 1.86 1.83 1.81 1.80 1.78 1.77 1.76 1.75 1.75 1.74 1.73 1.73 1.72 1.72 1.72 1.71 1.71 1.71 1.71 1.70 1.70 1.70 1.70 1.64 12.7 4.30 3.18 2.78 2.57 2.45 2.36 2.31 2.26 2.23 2.20 2.18 2.16 2.14 2.13 2.12 2.11 2.10 2.09 2.09 2.08 2.07 2.07 2.06 2.06 2.06 2.05 2.05 2.05 2.04 1.96 .95 .975 31.8 6.96 4.54 3.75 3.36 3.14 3.00 2.90 2.82 2.76 2.72 2.68 2.65 2.62 2.60 2.58 2.57 2.55 2.54 2.53 2.52 2.51 2.50 2.49 2.49 2.48 2.47 2.47 2.46 2.46 2.33 63.7 9.92 5.84 4.60 4.03 3.71 3.50 3.36 3.25 3.17 3.11 3.05 3.01 2.98 2.95 2.92 2.90 2.88 2.86 2.85 2.83 2.82 2.81 2.80 2.79 2.78 2.77 2.76 2.76 2.75 2.58 637 31.6 12.9 8.61 6.87 5.96 5.41 5.04 4.78 4.59 4.44 4.32 4.22 4.14 4.07 4.01 3.97 3.92 3.88 3.85 3.82 3.79 3.77 3.75 3.73 3.71 3.69 3.67 3.66 3.65 3.29 .99 .995 .9995 Quantis da distribuição t de Student 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 ∞ g.l. 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 40 50 60 .005 .000 .010 .072 .207 .412 .676 .989 1.34 1.73 2.16 2.60 3.07 3.57 4.07 4.60 5.14 5.70 6.26 6.84 7.43 8.03 8.64 9.26 9.89 10.5 11.2 11.8 12.5 13.1 13.8 20.7 28.0 35.5 .025 .001 .051 .216 .484 .831 1.24 1.69 2.18 2.70 3.25 3.82 4.40 5.01 5.63 6.26 6.91 7.56 8.23 8.91 9.59 10.3 11.0 11.7 12.4 13.1 13.8 14.6 15.3 16.0 16.8 24.4 32.4 40.5 .05 .004 .103 .352 .711 1.15 1.64 2.17 2.73 3.33 3.94 4.57 5.23 5.89 6.57 7.26 7.96 8.67 9.39 10.1 10.9 11.6 12.3 13.1 13.8 14.6 15.4 16.2 16.9 17.7 18.5 26.5 34.8 43.2 .1 .016 .211 .584 1.06 1.61 2.20 2.83 3.49 4.17 4.87 5.58 6.30 7.04 7.79 8.55 9.31 10.1 10.9 11.7 12.4 13.2 14.0 14.8 15.7 16.5 17.3 18.1 18.9 19.8 20.6 29.1 37.7 46.5 .2 .064 .446 1.01 1.65 2.34 3.07 3.82 4.59 5.38 6.18 6.99 7.81 8.63 9.47 10.3 11.2 12.0 12.9 13.7 14.6 15.4 16.3 17.2 18.1 18.9 19.8 20.7 21.6 22.5 23.4 32.3 41.4 50.6 .3 .148 .713 1.42 2.19 3.00 3.83 4.67 5.53 6.39 7.27 8.15 9.03 9.93 10.8 11.7 12.6 13.5 14.4 15.4 16.3 17.2 18.1 19.0 19.9 20.9 21.8 22.7 23.6 24.6 25.5 34.9 44.3 53.8 α .5 .455 1.39 2.37 3.36 4.35 5.35 6.35 7.34 8.34 9.34 10.3 11.3 12.3 13.3 14.3 15.3 16.3 17.3 18.3 19.3 20.3 21.3 22.3 23.3 24.3 25.3 26.3 27.3 28.3 29.3 39.3 49.3 59.3 .7 1.07 2.41 3.66 4.88 6.06 7.23 8.38 9.52 10.7 11.8 12.9 14.0 15.1 16.2 17.3 18.4 19.5 20.6 21.7 22.8 23.9 24.9 26.0 27.1 28.2 29.2 30.3 31.4 32.5 33.5 44.2 54.7 65.2 .8 1.64 3.22 4.64 5.99 7.29 8.56 9.80 11.0 12.2 13.4 14.6 15.8 17.0 18.2 19.3 20.5 21.6 22.8 23.9 25.0 26.2 27.3 28.4 29.6 30.7 31.8 32.9 34.0 35.1 36.3 47.3 58.2 69.0 .9 2.71 4.61 6.25 7.78 9.24 10.6 12.0 13.4 14.7 16.0 17.3 18.5 19.8 21.1 22.3 23.5 24.8 26.0 27.2 28.4 29.6 30.8 32.0 33.2 34.4 35.6 36.7 37.9 39.1 40.3 51.8 63.2 74.4 .95 3.84 5.99 7.81 9.49 11.1 12.6 14.1 15.5 16.9 18.3 19.7 21.0 22.4 23.7 25.0 26.3 27.6 28.9 30.1 31.4 32.7 33.9 35.2 36.4 37.7 38.9 40.1 41.3 42.6 43.8 55.8 67.5 79.1 .975 5.02 7.38 9.35 11.1 12.8 14.4 16.0 17.5 19.0 20.5 21.9 23.3 24.7 26.1 27.5 28.8 30.2 31.5 32.9 34.2 35.5 36.8 38.1 39.4 40.6 41.9 43.2 44.5 45.7 47.0 59.3 71.4 83.3 Quantis da distribuição Qui Quadrado .01 .000 .020 .115 .297 .554 .872 1.24 1.65 2.09 2.56 3.05 3.57 4.11 4.66 5.23 5.81 6.41 7.01 7.63 8.26 8.90 9.54 10.2 10.9 11.5 12.2 12.9 13.6 14.3 15.0 22.2 29.7 37.5 .99 6.63 9.21 11.3 13.3 15.1 16.8 18.5 20.1 21.7 23.2 24.7 26.2 27.7 29.1 30.6 32.0 33.4 34.8 36.2 37.6 38.9 40.3 41.6 43.0 44.3 45.6 47.0 48.3 49.6 50.9 63.7 76.2 88.4 .995 7.88 10.6 12.8 14.9 16.7 18.5 20.3 22.0 23.6 25.2 26.8 28.3 29.8 31.3 32.8 34.3 35.7 37.2 38.6 40.0 41.4 42.8 44.2 45.6 46.9 48.3 49.6 51.0 52.3 53.7 66.8 79.5 92.0 Bibliografia sugerida • Guimarães e Cabral(1997). Estatística. McGraw-Hill. • Montgomery e Runger (2002). Applied Statistics and Probability for Engineers. Wiley. • Mood, Graybill e Boes (1974). Introduction to the Theory of Statistics. McGraw-Hill. • Murteira, B., Ribeiro, C., Silva, J. e Pimenta, C. (2007). Introdução à Estatística, 2a edição. McGraw-Hill • Paulino e Branco (2005). Exercícios de Probabilidade e Estatística. Escolar Editora. • Pestana, D. e Velosa, S. (2002). Introdução à Probabilidade e à Estatística. Fundação Calouste Gulbenkian, Lisboa. • Rohatgi (1976). An Introduction to Probability Theory and Mathematical Statistics. Wiley. • Sokal e Rohlf (1995). Biometry. Freeman. • Tiago de Oliveira (1990). Probabilidades e Estatística: Conceitos, Métodos e Aplicações, vol. I, II. McGraw-Hill. 113