PETROBRAS_10.Metrologia

Transcrição

PETROBRAS_10.Metrologia
Metrologia
Industrial
Fundamentos da Confirmação Metrológica
6a Edição
Marco Antônio Ribeiro
Metrologia
Industrial
Fundamentos da Confirmação Metrológica
6a Edição)
Marco Antônio Ribeiro
Quem pensa claramente e domina a fundo aquilo de que fala, exprime-se claramente e de modo
compreensível. Quem se exprime de modo obscuro e pretensioso mostra logo que não entende muito
bem o assunto em questão ou então, que tem razão para evitar falar claramente (Rosa Luxemburg)
© 1993, 1994 e 1995, 1996 e 1999, 2004, Tek Treinamento & Consultoria Ltda.
Salvador, Outono 2004
Prefácio
Não use adjetivos, use números!
A maioria das pessoas ainda pensa que Metrologia se refere apenas à Dimensão e Comprimento e
trata de paquímetros, micrômetros, cálibres e similares. Este preconceito deve ser eliminado, pois
Metrologia é a Ciência da Medição e se refere à medição de qualquer grandeza física. A importância
da Metrologia é evidente, pois ela é uma ferramenta absolutamente essencial para a garantia da
qualidade de qualquer produto ou serviço de engenharia.
O presente trabalho foi escrito como suporte de um curso ministrado a engenheiros e técnicos
ligados, de algum modo, à medição de alguma grandeza física. Ele enfoca os aspectos técnicos,
físicos e matemáticos da medição da grandeza física.
Inicialmente, é apresentado o Sistema Internacional de Unidades (SI), com sua história,
características e as regras para a escrita correta de nomes, símbolos, prefixos e múltiplos das
unidades das grandezas físicas. Os Algarismos Significativos são conceituados e tratados, para
que sejam usados e entendidos corretamente. São vistos os conceitos básicos da Estatística da
Medição para tratar corretamente os erros aleatórios, conceituando médias, desvios, distribuições e
intervalos de confiança da medição.
As Quantidades Medidas são definidas e classificadas sob diferentes enfoques e são
apresentados os conceitos, unidades, formas e padrões das sete quantidades de base, das duas
suplementares e das principais derivadas, nas áreas da física, química, eletrônica e instrumentação.
A seguir são vistas os Instrumentos de Medição, onde são apresentados os diferentes métodos
de medição, as aplicações da medição na indústria e os diferentes tipos de instrumentos usados nas
medições. O desempenho do instrumento é analisado e são apresentadas as especificações típicas e
os parâmetros da precisão e da exatidão. Os erros aleatórios, sistemáticos e grosseiros da medição
são conceituados e apresentados os meios para eliminar, diminuir ou administrar tais erros,
considerando sua fonte de origem.
Finalmente, é analisada a Confirmação Metrológica da medição, onde são definidos os
conceitos de calibração e ajuste, os diferentes tipos de padrões, as abrangências das normas e a
situação dos laboratórios nacionais (INMETRO) e internacionais.
São apresentados como Apêndices: o Vocabulário de Metrologia (A), comentários sobre as
Normas ISO 9000 (C) e a relação dos Laboratórios da Rede Brasileira de Calibração (D)
publicada em MAI 97, pela CQ Qualidade, Editora Banas.
O autor ficará mais feliz, se ao fim da leitura do presente trabalho, as pessoas passarem a usar
mais números que adjetivos.
O trabalho está continuamente sendo revisto, quando são melhorados os desenhos, editadas
figuras melhores, atribuídos os créditos a todas as fotografias usadas.
Sugestões e críticas destrutivas são benvidas, no endereço do autor: Rua Carmen Miranda 52, A
903, CEP 41820-230, Fone (0xx71) 452-3195 e Fax (0xx71) 452-4286, Móvel(071) 9989-9531 e no
e-mail: [email protected]
Marco Antônio Ribeiro
Salvador, BA, Outono 2004
Autor
Marco Antônio Ribeiro nasceu em Araxá, MG, no dia 27 de maio de 1943, às 7:00
horas A.M.. Formou-se pelo Instituto Tecnológico de Aeronáutica (ITA), em
Engenharia Eletrônica, em 1969.
Foi professor de Matemática, no Instituto de Matemática da Universidade Federal
da Bahia (UFBA) (1974-1975), professor de Eletrônica na Escola Politécnica da UFBA
(1976-1977), professor de Instrumentação e Controle de Processo no Centro de
Educação Tecnológica da Bahia (CENTEC) (1978-1985) e professor convidado de
Instrumentação e Controle de Processo nos cursos da Petrobrás (desde 1978).
Foi gerente regional Norte Nordeste da Foxboro (1973-1986). Já fez vários cursos de
especialização em instrumentação e controle na Foxboro Co., em Foxboro, MA, Houston (TX) e na
Foxboro Argentina, Buenos Aires.
Possui dezenas de artigos publicados em revistas nacionais e anais de congressos
e seminários; ganhador do 2o prêmio Bristol-Babcock, no Congresso do IBP,
Salvador, BA, 1979.
Desde agosto de 1987 é diretor da Tek Treinamento & Consultoria Ltda, firma
dedicada à instrumentação, controle de processo, medição de vazão, aplicação de
instrumentos elétricos em áreas classificadas, Implantação de normas ISO 9000 e
integração de sistemas digitais.
Suas características metrológicas são:
altura: (1,70 ± 01) m;
peso correspondente ã massa de (70 ± 2) kg;
cor dos olhos: castanhos (cor subjetiva, não do arco íris)., cor dos cabelos
(sobreviventes): originalmente negros, se tornando brancos;
tamanho do pé: 40 (aplicável no Brasil, adimensional).
Gosta de xadrez, corrida, fotografia, música de Beethoven, leitura, trabalho, curtir
os filhos e a vida. Corre, todos os dias, cerca de (10 ± 2) km e joga xadrez
relâmpago todos os fins de semana. É provavelmente o melhor jogador de xadrez
entre os corredores e o melhor corredor entre os jogadores de xadrez (o que não é
nenhuma vantagem e nem interessa à Metrologia).
Bíblia e Metrologia
Levítico, 19
• 35:
Não façais nada contra a equidade, nem no juízo, nem na regra, nem no peso, nem
na medida.
• 36:
Seja justa a balança e justos os pesos; seja justo o alqueire e justa a medida
Deuteronômio, 25, Pesos e medidas justas
• 13. Não terás na tua bolsa pesos diferentes, um grande e outro pequeno.
• 14. Não terás na tua casa duas efas, uma grande e outra pequena.
• 15. Terás peso inteiro e justo, terás efa inteira e justa; para que se prolonguem os teus dias na
terra que o Senhor teu Deus te dá.
• 16. Porque é abominável ao Senhor teu Deus todo aquele que faz tais coisas, todo aquele que
prática a injustiça.
Ezequiel, 45
• 10. Tereis balanças justas, efa justa e bato justo.
• 11. A efa e o bato serão duma mesma medida, de maneira que o bato contenha a décima
parte do hômer e a efa a décima parte do hômer; o hômer será a medida padrão.
Amós, 8,
• 5. Quando passará a lua nova, para vendermos o grão? E o sábado, para expormos o trigo,
diminuindo a medida, e aumentando o preço, e procedendo dolosamente com balanças
enganadoras...
Miqueias, 6,
• 11. Justificarei ao que tem balanças falsas e uma bolsa cheia de pesos enganosos?
Conteúdo
1.Sistema Internacional (SI)
1
2. Estatística da Medição
23
1
Objetivos de Ensino
23
1
1. Estatística Inferencial
23
1.1. Unidades
1.2. História
1.3. Sistema Internacional (SI)
1.4. Política IEEE e SI
1
1
3
5
2. População e Amostra
25
2. Múltiplos e Submúltiplos
5
3. Tratamento Gráfico
26
Objetivos de Ensino
1. Sistema de Unidades
Prefixo
5
Símbolo
5
Fator de 10
5
3. Estilo e Escrita do SI
3.1. Introdução
3.2. Maiúsculas ou Minúsculas
3.3. Pontuação
3.4. Plural
3.5. Agrupamento dos Dígitos
3.6. Espaçamentos
3.7. Índices
3.8. Unidades Compostas
3.9. Uso de Prefixo
3.10. Ângulo e Temperatura
3.11. Modificadores de Símbolos
4. Algarismos Significativos
6
6
6
7
8
8
9
10
10
11
11
11
12
4.1. Introdução
12
4.2. Conceito
12
4.3. Algarismo Significativo e o Zero
12
4.4. Notação científica
13
4.5. Algarismo Significativo e a Medição 14
4.6. Algarismo Significativo e o Display 15
4.7. Algarismo Significativo e Calibração 16
4.8. Algarismo Significativo e a Tolerância
16
4.9. Algarismo Significativo e Conversão 17
4.10. Computação matemática
18
4.11. Algarismos e resultados
21
1.1. Introdução
1.2. Conceito
1.3. Variabilidade da Quantidade
3.1. Distribuição de Freqüência
3.2. Histograma
3.3. Significado metrológico
4. Médias
4.1. Média Aritmética
4.2. Raiz da Soma dos Quadrados
5. Desvios
23
23
24
26
28
28
29
29
30
30
5.1. Dispersão ou Variabilidade
30
5.2. Faixa (Range)
30
5.3. Desvio do Valor Médio
31
5.4. Desvio Médio Absoluto
31
5.5. Desvio Padrão da População
31
5.6. Desvio Padrão da Amostra
32
5.7. Fórmulas Simplificadas
32
5.8. Desvios da população e da amostra 32
5.9. Desvio padrão de operações
33
5.10.Coeficiente de variação
33
5.11. Desvio Padrão Das Médias
33
5.12. Variância
34
6. Distribuições dos dados
6.1. Introdução
6.2. Parâmetros da Distribuição
6.3. Tipos de distribuições
6.4. Distribuição normal ou de Gauss
7. Intervalos Estatísticos
7.1. Intervalo com n grande (n > 20)
7.2. Intervalo com n pequeno (n < 20)
7.3. Intervalo com n pequeno (n < 10)
7.4. Intervalo para várias amostras
8. Conformidade das Medições
8.1. Introdução
8.2. Teste Q
8.3. Teste do χ2 (qui quadrado)
8.4. Teste de Chauvenet
8.5. Outros Testes
8.6. Conformidade (goodness of fit)
8.7. Não-Conformidades
35
35
35
35
36
39
39
39
39
40
41
41
41
41
43
44
44
44
i
Metrologia Industrial
3. Quantidades Medidas
45
Objetivos de Ensino
45
1. Quantidade Física
45
1.1. Conceito
1.2. Valor da quantidade
1.3. Classificação das Quantidades
1.4. Faixa das Variáveis
1.5. Função Matemática
45
45
45
48
49
2. Quantidades de Base do SI
50
2.1. Comprimento
2.2. Massa
2.3. Tempo
2.4. Temperatura
2.5. Corrente Elétrica
2.6. Quantidade de Matéria
2.7. Intensidade Luminosa
2.8. Quantidades Suplementares
51
53
56
58
66
67
68
68
5. Erros da Medição
5.1. Introdução
5.2. Tipos de Erros
5.3. Erro Absoluto e Relativo
5.4. Erro Dinâmico e Estático
5.5. Erro Grosseiro
5.6. Erro Sistemático
5.7. Erro Aleatório
5.8. Erro Resultante Final
6. Incerteza na Medição
106
106
106
107
107
108
109
114
115
116
6.1. Conceito
6.2. Princípios Gerais
6.3. Fontes de Incerteza
6.4. Estimativa das Incertezas
6.4. Incerteza Padrão
6.5. Incerteza Padrão Combinada
6.6. Incerteza Expandida
116
116
118
118
118
118
119
5. Confirmação Metrológica
121
4
69
Objetivos de Ensino
121
Instrumentos de Medição
69
1. Confirmação Metrológica
121
Objetivos de Ensino
69
1. Medição
70
1.1. Metrologia
1.2. Resultado da Medição
1.3. Aplicações da Medição
1.4. Tipos de Medição
70
70
70
72
2. Instrumentos da Medição
73
2.1. Manual e Automático
2.2. Contato e Não-Contato
2.3. Alimentação dos Instrumentos
2.4. Analógico e Digital
2.5. Instrumento Microprocessado
3. Sistema de Medição
3.1. Conceito
3.2. Sensor
3.3. Condicionador do Sinal
3.4. Apresentação do Sinal
4. Desempenho do Instrumento
73
74
74
75
78
81
81
82
83
87
90
1.1. Conceito
1.2. Necessidade da confirmação
1.3. Terminologia
1.4. Calibração e Ajuste
1.5. Tipos de calibração
1.6. Erros de calibração
1.7. Calibração da Malha
1.8. Parâmetros da Calibração
3. Padrões
3.1. Padrões físicos e de receita
3.1. Rastreabilidade
4. Normas e Especificações
4.1. Norma
4.2. Especificações
4.3. Hierarquia
4.4. Tipos de Normas
4.5. Abrangência das Normas
4.6. Relação Comprador-Vendedor
4.7. Organizações de Normas
4.8. INMETRO
121
121
121
122
123
126
126
127
133
133
134
137
137
138
138
138
138
138
139
139
4.1. Introdução
90
4.2. Características do Instrumento
90
4.3. Exatidão
91
4.4. Precisão
92
4.5. Parâmetros da Precisão
93
4.6. Especificação da Precisão
97
4.7. Rangeabilidade
98
4.8. Precisão Necessária
99
4.9. Relação entre padrão e instrumento
100
4.10. Projeto, Produção e Inspeção
105
ii
Metrologia Industrial
A. Vocabulário de Metrologia 141
1. Grandezas e Unidades
142
1.1. Grandeza (mensurável)
142
1.2. Grandeza medida (Mensurando) 142
1.3. Grandeza de base
142
1.4. Grandeza suplementar
142
1.5. Grandeza derivada
142
1.6. Grandeza, dimensão de uma
142
1.7. Unidade (de medição)
143
1.8. Unidade, símbolo de
143
1.9. Unidade, sistema de
143
1.10. Valor (de uma grandeza)
143
1.11. Valor verdadeiro (de uma grandeza)
143
1.12. Valor verdadeiro convencional (de
uma grandeza)
144
1.13. Valor verdadeiro, erro e incerteza 144
1.14. Valor numérico (de uma grandeza)
145
2. Medição
2.1. Metrologia
2.2. Medição
2.3. Princípio de medição
2.4. Método de medição
2.5. Procedimento de medição
2.6. Mensurando (mensurand)
2.7. Grandeza de influência
2.8. Grandeza de modificação
2.9. Sinal de medição (measurement
signal)
2.10. Ruído (noise)
3. Resultado da Medição
3.1. Resultado de uma medição
3.2. Resultado não corrigido
3.3. Resultado corrigido
3.4. Erro (da medição)
3.5. Erro relativo
3.6. Erro aleatório
3.7. Erro sistemático
3.8. Correção (do erro)
3.9. Fator de correção
3.10. Incerteza
3.11. Incerteza (da medição)
3.12. Incerteza padrão
3.13. Incerteza padrão combinada
3.14. Incerteza expandida
3.15. Avaliação Tipo A (de incerteza)
3.16. Avaliação Tipo B (de incerteza)
3.17. Fator de cobertura
145
145
145
145
145
145
145
145
145
146
146
146
146
146
146
146
147
147
147
147
147
147
147
148
148
148
148
148
148
4. Instrumento de Medição
149
4.1. Instrumento de medição (measuring
instrument)
149
4.2. Medida materializada (material
measure)
149
4.3. Transdutor de Medição (measuring
transducer)
149
4.4. Transmissor (transmitter)
149
4.5. Cadeia de medição (measuring chain)
149
4.6. Sistema de medição (measuring
system)
149
4.7. Indicador (indicator)
149
4.8. Registrador (recorder)
150
4.9. Totalizador (totalizer)
150
4.10. Instrumento analógico (analog
instrument) e digital (digital instrument) 150
4.11. Mostrador (display, dial)
150
4.12. Índice (index)
150
4.13. Escala (scale)
151
4.14. Escala com zero suprimido
(supressed zero scale)
151
4.15. Escala com zero elevado (elevated
zero scale)
151
4.16. Escala expandida (expanded scale)
151
4.17. Sensor (sensor)
151
4.18. Faixa de indicação (range of
indication)
151
4.19. Amplitude de faixa (span of
indication)
151
4.20. Escala linear (linear scale)
152
5. Características do Instrumento de
Medição
152
5.1. Faixa nominal (nominal range)
152
5.2. Valor nominal (nominal value)
152
5.3. Condições de Utilização (rated
operating conditions)
152
5.4. Condições Limites (limiting conditions)
152
5.5. Condições de Referência (reference
conditions)
152
5.6. Constante de um instrumento
(instrument constant)
152
5.7. Característica de resposta (response
characteristic)
153
5.8. Sensibilidade (sensitibility)
153
5.9. Limiar de mobilidade (discrimination,
threshold)
153
5.10. Resolução (resolution)
153
5.11. Zona morta (dead zone)
153
5.12. Estabilidade (stability)
153
5.13. Discriminação (transparency)
153
5.14. Deriva (drift)
153
5.15. Tempo de resposta
153
5.16. Exatidão da medição
153
5.17. Classe de exatidão
153
5. 18. Repetitividade (de resultados de
medições)
154
iii
Metrologia Industrial
5.19. Reprodutibilidade
154
5.20. Erro
154
5.22. Limite de Erro Admissível
154
5.23. Erro de um instrumento de medição
154
5.24. Erro no ponto de controle
154
5.25. Erro no zero (zero error)
154
5.26. Erro no span (span error)
155
5.27. Erro intrínseco (intrinsic error)
155
5.28. Tendência (bias)
155
5.29. Isenção de Tendência (freedom from
bias)
155
5.30. Erro fiducial (fiducial error)
155
6. Conceitos estatísticos
6.1. Estatística
6.2. Probabilidade
6.3. Variável aleatória
6.5. Função distribuição
6.6. Parâmetro
6.7. Característica
6.8. População
6.9. Freqüência
6.10. Expectativa (de uma variável
aleatória ou de uma distribuição de
probabilidade; valor esperado; média
6.11. Desvio padrão
6.12. Estimativa
6.13. Variância
6.14. Covariância
6.15. Correlação
6.16. Independência
6.17. Representação gráfica
B. Normas ISO 9000
156
156
156
156
156
157
157
157
157
157
157
158
158
159
159
160
160
163
1. Introdução
163
2. Aspectos Legais
163
3. Histórico
164
4. Normas ISO
164
4.1. ISO 9000
4.2. ISO 9001
4.3. ISO 9002
4.4. ISO 9003
4.5. ISO 9004
4.6. Outras normas ISO
5. Filosofia da Norma
164
165
165
165
165
165
166
5.1. Controle e manutenção do
equipamento
166
5.2. Controle do equipamento de medição
e ensaio
166
5.3. Calibração do equipamento
166
7.3. Comprovação Metrológica
Revisão 2000 da ISO 9000
175
177
Conclusão final
178
C. Rede Brasileira de
Calibração
179
D. Fundamentos da Qualidade
181
Objetivos de Ensino
181
1. História da Qualidade
181
1.1. Primórdios
1.2. Qualidade Moderna
181
181
2. Conceito de Qualidade
183
2.1. Conformidade
183
2.2. Adequação ao uso
183
2.3. Satisfação do comprador a um preço
competitivo
183
3. Características da Qualidade
183
3.1. Variável
3.2. Não-conformidade
3.3. Atributo
3.4. Defeito
3.5. Padrão e Especificação
184
184
184
184
184
4. Aspectos da Qualidade
185
4.1. Qualidade de Projeto
4.2. Qualidade de conformidade
4.3. Qualidade de Desempenho
185
185
185
5. Gerenciamento da Qualidade Total
186
5.1. Introdução
5.2. Sistema de Qualidade Total
5.3. Malha da Qualidade
186
186
186
6. Inspeção e Prevenção
6.1. Inspeção
6.2. Modo Prevenção
7. Medição
191
191
191
191
8. Algumas Filosofias de Qualidade
191
8.1. Introdução
191
8.2. W. Edwards Deming e sua filosofia 191
8.3. Philip B. Crosby e sua filosofia
193
8.4. Joseph M. Juran e sua filosofia
193
8.5. Comparação das Três Filosofias 194
Referências Bibliográficas
197
Normas
199
6. Equipamento de Inspeção, Medição
e Teste
167
7. Certificação pela ISO 9000
7.1. Projeto
7.2. Implementação
170
170
172
iv
1.Sistema Internacional (SI)
Objetivos de Ensino
1. Relatar como apareceram as unidades e se desenvolveu o sistema métrico, que se tornou o
Sistema Internacional de Unidades.
2. Apresentar as unidades, símbolos, prefixos e modificadores das quantidades físicas.
3. Recomendar as regras de formatação e escrita correta das quantidades, unidades e símbolos do
Sistema Internacional.
4. Mostrar a conversão de unidades, através da análise dimensional.
5. Conceituar valor exato e aproximado através de algarismos significativos.
6. Mostrar as regras de arredondamento, soma, subtração, multiplicação e divisão de algarismos
significativos.
7. Apresenta o formato da notação científica dos números.
8. Discutir os métodos apropriados para fazer os cálculos e apresentar o resultado de modo
conveniente e entendido para todos os ramos da engenharia.
1. Sistema de Unidades
1.1. Unidades
Unidade é uma quantidade precisamente
estabelecida, em termos da qual outras
quantidades da mesma natureza podem ser
estabelecidas. Para cada dimensão há uma ou
mais quantidades de referência para descrever
quantitativamente as propriedades físicas de
algum objeto ou material. Por exemplo, a
dimensão de comprimento pode ser medida em
unidades de kilômetro, metro, centímetro, pé
ou a distância entre o nariz e a ponta do dedo
de uma pessoa. A dimensão do tempo pode
ser medida em unidades segundos, minutos,
horas, dias, meses, anos.
1.2. História
Bíblia
A preocupação de se ter um único sistema
de unidades está na Bíblia, onde se tem várias
passagens, como: ter dois pesos e duas
medidas é abominável para o Senhor
(Provérbios, 20, 10). A Bíblia também tinha
preocupações metrológicas: Não façais nada
contra a equidade, nem no juízo, nem na regra,
nem no peso, nem na medida. Seja justa a
balança e justos os pesos; seja justo o alqueire
e justa a medida (Levítico, 19, 35-36)
Antigüidade
As antigas civilizações já tinham percebido
a necessidade de criação de unidades para a
troca de mercadorias. Os padrões de peso
datam de 7000 A.C. e os padrões de
comprimento datam de 3000 A.C. Os
babilônicos e os romanos já haviam
estabelecido padrões e nomes para unidades.
Originalmente, os padrões e unidades eram
escolhidos por conveniência prática e se
baseavam em medidas do corpo humano.
Depois, verificou-se que era preferível
desenvolver padrões baseados em fenômenos
naturais reprodutíveis em vez de padrões
baseados no corpo humano.
Como existe um grande número de
dimensões, é necessário um sistema de
unidades para se ter medições confiáveis e
reprodutíveis e para uma boa comunicação
entre todos os envolvidos com as medições. O
desenvolvimento tecnológico em transportes e
comunicações e o aumento do comércio
globalizado tem mostrado a necessidade de
uma linguagem comum de medição, um
sistema capaz de medir qualquer quantidade
física com unidades que tenham definição clara
e precisa e uma relação lógica com as outras
unidades.
Sistema inglês
O sistema inglês, também chamado de
imperial, é usado na Inglaterra, Estados Unidos
e Canadá, mas mesmo nestes países há
1
Sistema Internacional
muitas diferenças em seus detalhes. O
insuspeito cientista inglês William Thompson,
Barão Kelvin (1824-1907), dizia que o Sistema
Imperial Inglês de unidades era absurdo,
ridículo, demorado e destruidor de cérebro. De
fato, a maioria das unidades se baseava em
medidas do corpo humano, geralmente do
corpo do rei de plantão. Por exemplo, a jarda
(yard) era a distância do nariz ao polegar com
o braço estendido do rei inglês Henry I (circa
1100).
O sistema inglês não é coerente e há vários
múltiplos entre a maioria das unidades. Por
exemplo, para o comprimento tem-se
12 polegadas para um pé
3 pés para uma jarda
1760 jardas para uma milha.
Algumas pessoas tem a idéia errada que o
sistema métrico atual, o SI, seja uma criação
recente e intencional para confrontar a
tecnologia americana. Ele apareceu antes de
os Estados Unidos se tornarem uma potência
tecnológica. A tecnologia americana pode
realmente ser melhorada pela coerência do SI.
Em 1975, nos Estados Unidos, foi decretado o
Ato de Conversão Métrica, dando à indústria
americana a oportunidade de se mudar
voluntariamente para o sistema SI. Nos
Estados Unidos ainda há uma resistência para
mudar as unidades, principalmente pelos
segmentos da indústria que são estritamente
domésticos e pelo público em geral. Isto é
natural, pois a mudança altera um modo de
vida consagrado e requer uma reeducação e
aprendizado de novos termos.
Sistema Decimal
A idéia de um sistema decimal de unidades
foi concebida pelo inglês Simon Stevin (15481620). Em 1671, o padre francês Gabriel
Mouton, definiu uma proposta para um sistema
decimal, baseando-se em medidas da Terra,
em vez de medidas relacionadas com
dimensões humanas.
As unidades decimais foram também
consideradas no primeiros dias da Academia
Francesa de Ciências, fundada em 1666. O
que tornou o sistema métrico uma realidade foi
a aceitação social e política da Revolução
Francesa. Em seu entusiasmo para romper as
tradições européias existentes, os líderes da
Revolução acreditaram que até o sistema de
medição deveria ser mudado porque o
existente fora criado pela monarquia. Uma
comissão de cientistas franceses foi formada
para estabelecer um novo sistema de medição
baseado em normas absolutas e constantes
encontradas no universo físico. Tayllerand
propôs um sistema decimal internacional de
pesos e medidas a tous de temps, a tous les
peuples. Embora este trabalho tenha iniciado
nesta época, a finalização da comissão foi
muito demorada e difícil.
Sistema CGS
O primeiro sistema métrico oficial, chamado
de centímetro-grama-segundo (CGS), foi
proposto em 1795 e adotado na França em
1799. Em 1840 o governo francês, em resposta
a uma falta do entusiasmo público para o uso
voluntário do sistema, tornou obrigatório o
sistema CGC. Outros países do mundo
também adotaram oficialmente o sistema CGS.
Em 1866, no início de seu desenvolvimento
tecnológico, os Estados Unidos promulgaram
um ato tornando legal o sistema métrico.
Em 1873 a Associação Britânica do Avanço
da Ciência recomendou o uso do sistema CGS
e desde então ele foi aplicado em todas as
áreas da ciência. Por causa do uso crescente
do sistema métrico através da Europa, o
governo francês convidou várias nações para
uma conferência internacional para discutir um
novo protótipo do metro e um número de
padrões idênticos para as nações participantes.
Em 1875, o Tratado do Metro definiu os
padrões métricos para o comprimento e peso e
estabeleceu procedimentos permanentes para
melhorar e adotar o sistema métrico. Este
tratado foi assinado por 20 países, inclusive o
Brasil.
Foi constituída a organização internacional
Conference Generale des Poids et Mesures
(CGPM), para fornecer uma base razoável de
unidades de medição precisa e universal. Esta
organização consiste do Comitê International
des Poids et Mesures (CIPM) que fornece a
base técnica e que possui o laboratório de
trabalho Bureau International des Poids et
Mesures (BIPM). A CGPM é constituída pelos
delegados de todos os estados membros da
Convenção do Metro e se reúne de seis em
seis anos para:
1. garantir a propagação e aperfeiçoamento
do SI,
2. sancionar os resultados de novas
determinações metrológicas
fundamentais
3. adotar decisões que se relacionem com
a organização e desenvolvimento do
BIPM.
Sistema MKSA
Depois do Tratado do Metro, tornou-se
necessário definir claramente os significados e
as unidades de massa, peso e força. Em 1901,
a 3a CGPM declara que o kilograma é uma
unidade de massa e o termo peso denota uma
quantidade de força. A decisão de definir o
kilograma (e grama) de um modo diferente do
que foi definido no sistema CGS requer um
2
Sistema Internacional
novo sistema, MKS, baseado no metrokilograma-segundo.
Em 1935, a Comissão Internacional de
Eletrotécnica (IEC) incorpora uma quarta
unidade base de corrente, o ampère. Com esta
adição, o sistema ficou conhecido como MKSA
(ou Giorgi).
1.3. Sistema Internacional (SI)
Em 1960, a 11a CGPM deu formalmente o
nome de Systeme International d'Unites,
simbolizado como SI (Sistema Internacional) e
o estabeleceu como padrão universal de
unidades de medição. SI é um símbolo e não a
abreviatura de Sistema Internacional e por isso
é errado escrever S.I., com pontos.
O SI é um sistema de unidades com as
seguintes características desejáveis:
Coerente
Ser coerente significa que o produto ou o
quociente de quaisquer duas unidades é a
unidade da quantidade resultante. Por
exemplo, o produto da força de 1 N pelo
comprimento de 1 m é 1 J de trabalho.
Decimal,
No sistema decimal, todos os fatores
envolvidos na conversão e criação de unidades
são somente potências de 10. No SI, as únicas
exceções se referem às unidades de tempo
baseadas no calendário, onde se tem
1 dia
24 horas
1 hora
60 minutos
1 minuto
60 segundos
Único,
No sistema, há somente uma unidade para
cada tipo de quantidade física, independente
se ela é mecânica, elétrica, química, ou termal.
Joule é unidade de energia elétrica, mecânica,
calorífica ou química.
Simples e preciso,
O SI é simples, de modo que cientistas,
engenheiros e leigos podem usá-lo e ter noção
das ordens de grandeza envolvidas. Não
possui ambigüidade entre nomes de grandezas
e de unidades.
Não degradável
O SI não se degrade, de modo que as
mesmas unidades são usadas ontem, hoje e
amanhã.
Universal
Os símbolos e nomes de unidades formam
um único conjunto básico de padrões
conhecidos, aceitos e usados no mundo inteiro.
Conclusão
O SI oferece várias vantagens nas áreas de
comércio, relações internacionais, ensino e
trabalhos acadêmicos e pesquisas científicas.
Atualmente, mais de 90% da população do
mundo vive em países que usam
correntemente ou estão em vias de mudar para
o SI. Os Estados Unidos, Inglaterra, Austrália,
Nova Zelândia, África do Sul adotaram
legalmente o SI. Também o Japão e a China
estão atualizando seus sistemas de medidas
para se conformar com o SI.
A utilização do SI é recomendada pelo
BIPM, ISO, OIML, CEI e por muitas outras
organizações ligadas à normalização,
metrologia e instrumentação.
É uma obrigação de todo técnico
entender, respeitar e usar o SI
corretamente.
Poucas Unidades de base
As sete unidades de base são separadas e
independentes entre si, por definição e
realização.
Unidades com tamanhos razoáveis,
Os tamanhos das unidades evitam a
complicação do uso de prefixos de múltiplos e
submúltiplos.
Completo
O SI é completo e pode se expandir
indefinidamente, incluindo nomes e símbolos
de unidades de base e derivadas e prefixos
necessários.
3
Sistema Internacional
Tab. 1.1. Decisões da Conferência Geral de Pesos e Medidas
1a CGPM (1889)
Estabeleceu padrões físicos para kilograma e metro (*).
a
3 CGPM (1901)
Diferencia kilograma massa do kilograma forca. Define litro como o volume ocupado por 1 kg de
água com densidade máxima. Estabelece a aceleração normal da gravidade como g = 9,806 65
m/s2.
7a CGPM (1927)
Define com maiores detalhes o metro físico (*). Define unidades fotométricas de vela nova e
lumen novo (*).
9a CGPM (1948)
Define unidade de forca no MKS, joule e watt. Define ampère, volt, ohm, coulomb, farad, henry e
weber. Diferencia o ponto tríplice do ponto de gelo da água (0,01 oC). Estabelece a unidade de
calor como joule. Escolhe grau Celsius entre grau centígrado, centesimal e Celsius. Padroniza a
grafia dos símbolos de unidades e números.
10a CGPM (1954)
Define o ponto tríplice da água como igual a 273,15 K. Define atmosfera normal como 101,325
N/m2.
Define seis unidades de base (metro, kilograma, segundo, grau Kelvin*, ampère e candela.
11a CGPM (1960)
Estabelece o Sistema Internacional de Unidades, SI. Redefine o metro baseando-se no
comprimento de onda da radiação do Kr-86. Define segundo como 1/31 556 925,974 7 do ano
trópico para 0 janeiro 1900*. Estabelece 1 L = 1,000 028 dm3. Introduz as unidades suplementares:
radiano e esterradiano.
12a CGPM (1964)
Propõe mudança no segundo. Recomenda uso de unidades SI para volume e abole o litro para
aplicações de alta precisão. Abole curie (Ci) como unidade de atividade dos radionuclídeos.
Acrescenta os prefixos femto (10-15) e atto (10-18).
13a CGPM (1968)
Define segundo como duração de 9 192 631 770 períodos da radiação de 133Ce*. Muda a
unidade de temperatura termodinâmica de grau kelvin (oK) para kelvin (K). Define candela (*).
Aumenta o número de unidades derivadas. Revoga e suprime o micron e vela nova.
14a CGPM (1971)
Adota pascal (Pa) como unidade SI de pressão, siemens (S) de condutância elétrica. Define mol
como unidade de quantidade de matéria.
15a CGPM (1975)
Recomenda o tempo universal coordenado. Recomenda o valor da velocidade da luz no vácuo
como c = 299 792 458 m/s. Adota becquerel (Bq) para atividade ionizante e gray (Gy) para dose
absorvida. Introduz os prefixos peta (1015) e exa (1018)
16a CGPM (1979)
Redefine candela como intensidade luminosa e revoga vela nova. Adota sievert (Sv) como
unidade SI de equivalente de dose. Aceita os símbolos l e L para litro.
17a CGPM (1983)
Redefine o metro em relação à velocidade da luz no vácuo
* - Decisão a ser revista, revogada, modificada ou completada posteriormente.
4
1.4. Política IEEE e SI
A política (Policy 9.20) adotada pelo IEEE
(Institute of Electrical and Electronics
Engineers). A política de transição para as
unidades SI começou em 01 JAN 96, estágio 1,
que requer que todas as normas novas e
revisões submetidas para aprovação devem ter
unidades SI.
No estágio 2, a partir de 01 JAN 98, dá-se
preferencia às SI. A política não aprova a
alternativa de se colocar a unidade SI seguida
pela unidade não SI em parêntesis, pois isto
torna mais difícil a leitura do texto. É
recomendável usar notas de rodapé ou tabelas
de conversão.
No estágio 3, para ocorrer após 01 JAN
2000, propõe-se que todas as normas novas e
revistas devem usar obrigatoriamente unidades
SI. AS unidades não SI só podem aparecer em
notas de rodapé ou em anexos informativos.
Foram notadas três exceções:
1. Tamanhos comerciais, como séries de
bitola de fios AWG
2. Conexões baseadas em polegadas
3. Soquetes e plugs
Quando houver conflitos com normas ou
práticas de indústria existentes, deve haver
uma avaliação individual e aprovado
temporariamente pelo IEEE.
A implementação do plano não requer que
os produtos já existentes, com parâmetros em
unidades não SI, sejam substituídos por
produtos com parâmetros em unidades SI.
2. Múltiplos e Submúltiplos
Como há unidades muito pequenas e muito
grandes, elas devem ser modificadas por
prefixos fatores de 10. Por exemplo, a distância
entre São Paulo e Rio de Janeiro expressa em
metros é de 4 x 109 metros. A espessura da
folha deste livro é cerca de 1 x 10-7 metros.
Para evitar estes números muito grandes e
muito pequenos, compreensíveis apenas para
os cientistas, usam-se prefixos decimais às
unidades SI. Assim, a distância entre São
Paulo e Rio se torna 400 kilômetros (400 km) e
a espessura da folha de papel, 0,1 milímetros
(0,1 mm).
Os prefixos para as unidades SI são usados
para formar múltiplos e submúltiplos decimais
das unidades SI. Deve-se usar apenas um
prefixo de cada vez. O símbolo do prefixo deve
ser combinado diretamente com o símbolo da
unidade.
Tab. 1.2 - Múltiplos e Submúltiplos
Prefixo
yotta
zetta
exa
peta
tera
giga
mega**
kilo**
hecto*
deca*
deci*
centi*
mili**
micro**
nano
pico
femto
atto
zepto
yocto
Símbolo
Y
Z
E
P
T
G
M
k
H
da
d
c
m
µ
n
p
f
a
z
y
Fator de 10
+24
+21
+18
+15
+12
+9
+6
+3
+2
+1
-1
-2
-3
-6
-9
-12
-15
-18
-21
-24
Observações
* Exceto para o uso não técnico de centímetro e em
medidas especiais de área e volume, devem-se evitar estes
prefixos.
** Estes prefixos devem ser os preferidos, por terem
potências múltiplas de 3
5
3. Estilo e Escrita do SI
3.1. Introdução
O SI é uma linguagem internacional da
medição. O SI é uma versão moderna do
sistema métrico estabelecido por acordo
internacional. Ele fornece um sistema de
referência lógica e interligado para todas as
medições na ciência, indústria e comércio.
Para ser usado sem ambigüidade por todos os
envolvidos, ele deve ter regras simples e claras
de escrita. Parece que o SI é exageradamente
rigoroso e possui muitas regras relacionadas
com a sintaxe e a escrita dos símbolos,
quantidades e números. Esta impressão é
falsa, após uma análise. Para realizar o
potencial e benefícios do SI, é essencial evitar
a falta de atenção na escrita e no uso dos
símbolos recomendados.
Os principais pontos que devem ser
lembrados são:
1. O SI usa somente um símbolo para
qualquer unidade e somente uma
unidade é tolerada para qualquer
quantidade, usando-se poucos nomes.
2. O SI é um sistema universal e os
símbolos são usados exatamente da
mesma forma em todas as línguas, de
modo análogo aos símbolos para os
elementos e compostos químicos.
3. Para o sucesso do SI deve-se evitar a
tentação de introduzir novas mudanças
ou inventar símbolos. Os símbolos
escolhidos foram aceitos
internacionalmente, depois de muita
discussão e pesquisa.
Serão apresentadas aqui as regras básicas
para se escrever as unidades SI, definindo-se o
tipo de letras, pontuação, separação silábica,
agrupamento e seleção dos prefixos, uso de
espaços, vírgulas, pontos ou hífen em símbolos
compostos. Somente respeitando-se estes
princípios se garante o sucesso do SI e se
obtém um conjunto eficiente e simples de
unidades.
No Brasil, estas recomendações estão
contidas na Resolução 12 (1988) do Conselho
Nacional de Metrologia, Normalização e
Qualidade Industrial.
3.2. Maiúsculas ou Minúsculas
Nomes de Unidades
Os nomes das unidades SI, incluindo os
prefixos, devem ser em letras minúsculas
quando escritos por extenso, exceto quando no
início da frase. Os nomes das unidades com
nomes de gente devem ser tratados como
nomes comuns e também escritos em letra
minúscula. Quando o nome da unidade fizer
parte de um título, escrever o nome das
unidades SI do mesmo formato que o resto do
título. Exemplos:
A corrente é de um ampère.
A freqüência é de 60 hertz.
A pressão é de 15,2 kilopascals.
Temperatura
No termo grau Celsius, grau é considerado
o nome da unidade e Celsius é o modificador
da unidade. O grau é sempre escrito em letra
minúscula, mas Celsius em maiúscula. O nome
de unidade de temperatura no SI é o kelvin,
escrito em letra minúscula. Mas quando se
refere à escala, escreve-se escala Kelvin.
Antes de 1967, se falava grau Kelvin, hoje, o
correto é kelvin. Exemplos:
A temperatura da sala é de 25 graus
Celsius.
A temperatura do objeto é de 303 kelvin.
A escala Kelvin é defasada da Celsius de
273,15 graus
Símbolos
Símbolo é a forma curta dos nomes das
unidades SI e dos prefixos. É incorreto chamálo de abreviação ou acróstico. O símbolo é
invariável, não tendo plural, modificador, índice
ou ponto.
Deve-se manter a diferença clara entre os
símbolos das grandezas, das unidades e dos
prefixos. Os símbolos das grandezas
fundamentais são em letra maiúscula. Os
símbolos das unidades e dos prefixos podem
ser de letras maiúsculas e minúsculas. A
importância do uso preciso de letras
minúsculas e maiúsculas é mostrada nos
seguintes exemplos:
G para giga; g para grama
K para kelvin, k para kilo
N para newton; n para nano
T para tera; t para tonelada e T para a
grandeza tempo.
S para siemens, s para segundo
M para mega e M para a grandeza massa
P para peta e Pa para pascal e p para pico
L para a grandeza comprimento e L para a
unidade litro.
m para mili e m para metro
H para henry e Hz para hertz
6
Sistema Internacional
W para watt e Wb para weber
Os símbolos são preferidos quando as
unidades são usadas com números, como nos
valores de medições. Não se deve misturar ou
combinar partes escritas por extenso com
partes expressas por símbolo.
Letra romana para símbolos
Quase todos os símbolos SI são escritos em
letras romanas. As duas únicas exceções são
as letras gregas µ (mi ) para micro (10-6) e Ω
(ômega) para ohm, unidade de resistência.
Nomes dos símbolos em letra minúscula
Símbolos de unidades com nomes de
pessoas tem a primeira letra maiúscula. Os
outros símbolos são escritos com letras
minúsculas, exceto o símbolo do litro que pode
ser escrito também com letra maiúscula (L),
para não ser confundido com o número 1.
Exemplos:
A corrente é de 5 A.
O comprimento da corda é de 6,0 m.
O volume é de 2 L.
Símbolos com duas letras
Há símbolos com duas letras, onde somente
a primeira letra deve ser escrita como
maiúscula e a segunda deve ser minúscula.
Exemplos:
Hz é símbolo de hertz, H é símbolo de
henry.
Wb é símbolo de weber, W é símbolo de
watt.
Pa é símbolo de pascal, P é prefixo peta
(1015)
Uso do símbolo e do nome
Deve-se usar os símbolos somente quando
escrevendo o valor da medição ou quando o
nome da unidade é muito complexo. Nos
outros casos, usar o nome da unidade. Não
misturar símbolos e nomes de unidades por
extenso.
Exemplo correto: O comprimento foi medido
em metros; a medida foi de 6,1 m.
Exemplo incorreto: O comprimento foi
medido em m; a medida foi de 6,1 metros.
Símbolos em títulos
Os símbolos de unidades não devem ser
usados em letra maiúscula, como em título.
Quando for necessário, deve-se usar o nome
da unidade por extenso, em vez de seu
símbolo.
Correto: ENCONTRADO PEIXE DE 200
KILOGRAMAS
Incorreto: ENCONTRADO PEIXE DE 200
KG
Símbolo e início de frase
Não se deve começar uma frase com um
símbolo, pois é impossível conciliar a regra de
se começar uma frase com maiúscula e de
escrever o símbolo em minúscula.
Exemplo correto: Grama é a unidade comum
de pequenas massas.
Exemplo incorreto: g é a unidade de pequenas
massas.
Prefixos
Todos os nomes de prefixos de unidades SI
são em letras minúsculas quando escritos por
extenso em uma sentença. A primeira letra do
prefixo é escrita em maiúscula apenas quando
no início de uma frase ou parte de um título. No
caso das unidades de massa,
excepcionalmente o prefixo é aplicado à grama
e não ao kilograma, que já possui o prefixo kilo.
Assim, se tem miligrama (mg) e não
microkilograma (µkg); a tonelada corresponde
a megagrama (Mg) e não a kilokilograma (kkg).
Aplica-se somente um prefixo ao nome da
unidade. O prefixo e a unidade são escritos
juntos, sem espaço ou hífen entre eles.
Os prefixos são invariáveis.
Exemplo correto: O comprimento é de 110
km
Exemplos incorretos:
O comprimento da estrada é de 110km.
O comprimento da estrada é de 110 kms.
O comprimento da estrada é de 110-km.
O comprimento da estrada é de 110 k m.
O comprimento da estrada é de 110 Km.
3.3. Pontuação
Ponto
Não se usa o ponto depois do símbolo das
unidades, exceto no fim da sentença. Pode-se
usar um ponto ou hífen para indicar o produto
de dois símbolos, porém, não se usa o ponto
para indicar o produto de dois nomes.
Exemplos corretos (incorretos):
O cabo de 10 m tinha massa de 20 kg.
(O cabo de 10 m. tinha massa de 20 kg..)
A unidade de momentum é newton metro
(A unidade de momentum é newton.metro)
A unidade de momentum é o produto N.m
A unidade de momentum é o produto N-m
Marcador decimal
No Brasil, usa-se a vírgula como um
marcador decimal e o ponto como separador
de grupos de 3 algarismos, em condições onde
não se quer deixar a possibilidade de
preenchimento indevido. Quando o número é
menor que um, escreve-se um zero antes da
vírgula. Nos Estados Unidos, usa-se o ponto
7
Sistema Internacional
como marcador decimal e a virgula como
separador de algarismos.
Exemplo (Brasil)
A expressão meio metro se escreve 0,5 m.
O valor do cheque é de R$2.345.367,00
Exemplo (Estados Unidos)
A expressão meio metro se escreve: 0.5 m.
O valor do cheque é de US$2,345,367.00
3.4. Plural
Nomes das unidades com plural
Quando escrito por extenso, o nome da
unidade métrica admite plural, adicionando-se
um s, for
1. palavra simples. Por exemplo: ampères,
candelas, joules, kelvins, kilogramas,
volts.
2. palavra composta em que o elemento
complementar do nome não é ligado por
hífen. Por exemplo: metros quadrados,
metros cúbicos, unidades astronômicas,
milhas marítimas.
3. termo composto por multiplicação, em
que os componentes são independentes
entre si. Por exemplo: ampères-horas,
newtons-metros, watts-horas, pascalssegundos.
Valores entre +1 e -1 são sempre
singulares. O nome de uma unidade só passa
ao plural a partir de dois (inclusive).
A medição do valor zero fornece um ponto
de descontinuidade no que as pessoas
escrevem e dizem. Deve-se usar a forma
singular da unidade para o valor zero. Por
exemplo, 0 oC e 0 V são reconhecidamente
singulares, porém, são lidos como plurais, ou
seja, zero graus Celsius e zero volts. O correto
é zero grau Celsius e zero volt.
Exemplos:
1 metro
23 metros
0,1 kilograma
1,5 kilograma
34 kilogramas
1 hertz
60 hertz
1,99 joule
8 x 10-4 metro
4,8 metros por segundo
Nomes das unidades sem plural
Certos nomes de unidades SI não possuem
plural por terminarem com s, x ou z. Exemplos:
lux, hertz e siemens.
Certas partes dos nomes de unidades
compostas não se modificam no plural por:
1. corresponderem ao denominador de
unidades obtidas por divisão. Por
exemplo, kilômetros por hora, lumens
por watt, watts por esterradiano.
2. serem elementos complementares de
nomes de unidades e ligados a eles por
hífen ou preposição. Por exemplo, anosluz, elétron-volts, kilogramas-força.
Símbolos
Os símbolos das unidades SI não tem
plural. Exemplos:
2,6 m
1m
0,8 m
-30 oC
o
0 C
100 oC
3.5. Agrupamento dos Dígitos
Numerais
Todos os números são constituídos de
dígitos individuais, entre 0 e 9. Os números são
separados em grupos de três dígitos, em cada
lado do marcador decimal (vírgula).
Não se deve usar vírgula ou ponto para
separar os grupos de três dígitos.
Deve-se deixar um espaço entre os grupos
em vez do ponto ou vírgula, para evitar a
confusão com os diferentes países onde o
ponto ou vírgula é usado como marcador
decimal.
Não deixar espaço entre os dígitos e o
marcador decimal. Um número deve ser
tratado do mesmo modo em ambos os lados do
marcador decimal.
Exemplos:
Correto
Incorreto
23 567
567 890 098
34,567 891
345 678,236 89
345 678,236 89
23.567
567.890.098
34,567.891
345.678,236.89
345 678,23 689
Números de quatro dígitos
Os números de quatro dígitos são
considerados de modo especial e diferente dos
outros. No texto, todos os números com quatro
ou menos dígitos antes ou depois da vírgula
podem ser escritos sem espaço.
Exemplos:
1239
1993
1,2349
2345,09
1234,5678
1 234,567 8
Tabelas
As tabelas devem ser preenchidas com
números puros ou adimensionais. As suas
respectivas unidades devem ser colocadas no
cabeçalho das tabelas. Ver Tab.1.3.
8
Sistema Internacional
Tab.1.3. Variação da temperatura e volume específico
com a pressão para a água pura
Pressão, P
kPa
50,0
60,0
70,0
80,0
Temperatura, T
K
354,35
358,95
362,96
366,51
Volume, V
m3/kg
3,240 1
2,731 7
2,364 7
2,086 9
Normalmente, em tabelas ou listagens,
todos os números usam agrupamentos de três
dígitos e espaços. Adotando este formato, se
diminui a probabilidade de erros.
Assim, a primeira linha da tabela significa
Pressão P = 50,0 kPa
Temperatura T = 354,35 K
Volume específico V = 3,240 m3/kg
Gráficos
Os números colocados nos eixos do
gráficos (abcissa e ordenada) são puros ou
adimensionais. As unidades e símbolos das
quantidades correspondentes são colocadas
nos eixos, uma única vez.
O gráfico da tabela anterior fica assim
16HHC-656/9978
610.569.958-15
(071) 359-3195
número de peça
CPF
telefone
3.6. Espaçamentos
Múltiplos e submúltiplos
Não se usa espaço ou hífen entre o prefixo
e o nome da unidade ou entre o prefixo e o
símbolo da unidade. Por exemplo,
kiloampère, kA
milivolt, mV
megawatt, MW
Valor da medição da unidade
A medição é expressa por um valor
numérico, uma unidade, sua incerteza e os
limites de probabilidade. O valor é expresso por
um número e a unidade pode ser escrita pelo
nome ou pelo símbolo. Deve-se deixar um
espaço entre o número e o símbolo ou nome
da unidade. Os símbolos de grau, minuto e
segundo são escritos sem espaço entre os
números e os símbolos. Exemplos:
670 kHz
670 kilohertz
20 mm
10 N
36’
36 oC
Modificador da unidade
Quando uma quantidade é usada como
adjetivo, pode-se usar um hífen entre o valor
numérico e o símbolo ou nome. Não se deve
usar hífen com o símbolo de ângulo (o) ou grau
Celsius (oC). Exemplos:
Pacote de 5-kg.
Filme de 35-mm.
Temperatura de 36 oC
Produtos, quocientes e por
Deve-se evitar confusão, principalmente em
números e unidades compostos envolvendo
produto (.) e divisão (/) e por . O bom senso e a
clareza devem prevalecer no uso de hífens nos
modificadores.
Fig. 1.1. Variação da temperatura e volume com
a pressão
Números especiais
Há certos números que possuem regras de
agrupamento especificas. Números envolvendo
números de peça, documento, telefone e
dinheiro, que não devem ser alterados, devem
ser escritos na forma original. Vírgulas,
espaços, barras, parêntesis e outros símbolos
aplicáveis podem ser usados para preencher
os espaços e evitar fraudes.
Exemplos:
R$ 21.621,90
dinheiro (real)
Símbolos algébricos
Deve-se deixar um espaço de cada lado
dos sinais de multiplicação, divisão, soma e
subtração e igualdade. Isto não se aplica aos
símbolos compostos que usam os sinais
travessão (/) e ponto (.).
Não se deve usar nomes de unidades por
extenso em equações algébricas e aritméticas;
usam-se os símbolos. Exemplos:
4 km + 2 km = 6 km
6N x 8 m = 48 N.m
26 N : 3 m2 = 8,67 Pa
100 W : (10 m x 2 K) = 5 W/(m.K)
10 kg/m3 x 0,7 m3 = 7 kg
15 kW.h
9
Sistema Internacional
3.7. Índices
Símbolos
São usados índices numéricos (2 e 3) para
indicar quadrados e cúbicos. Não se deve usar
abreviações como qu., cu, c. Quando se
escrevem símbolos para unidades métricas
com expoentes, como metro quadrado,
centímetro cúbico, um por segundo, escrever o
índice imediatamente após o símbolo.
Exemplos:
10 metros quadrados = 10 m2
1 por segundo = s-1
Nomes de unidades
Quando se escrevem unidades compostas,
aparecem certos fatores com quadrado e
cúbico. Quando aplicável, deve-se usar
parêntesis ou símbolos exclusivos para evitar
ambigüidade e confusão.
Por exemplo, para kilograma metro
quadrado por segundo quadrado, o símbolo
correto é kg.m2/s2. Seria incorreto interpretar
como (kg.m)2/s2 ou (kg.m2/s)2
3.8. Unidades Compostas
As unidades compostas são derivadas
como quocientes ou produtos de outras
unidades SI.
As regras a serem seguidas são as
seguintes:
Não se deve misturar nomes extensos e
símbolos de unidades. Não usar o
travessão (/) como substituto de por,
quando escrevendo os nomes por extenso.
Por exemplo, o correto é kilômetro por hora
ou km/h. Não usar kilômetro/hora ou km
por hora.
Deve-se usar somente um por em qualquer
combinação de nomes de unidades
métricas. A palavra por denota a divisão
matemática. Não se usa por para significar
por unidade ou por cada (além do
cacófato). Por exemplo, a medição de
corrente de vazamento, dada em
microampères por 1 kilovolt da voltagem
entre fases, deveria ser escrita em
microampères por cada kilovolt da
voltagem entre fases. No SI, 1 mA/kV é
igual a 1 nanosiemens (nS). Outro
exemplo, usa-se metro por segundo
quadrado e não metro por segundo por
segundo.
os prefixos podem coexistir num símbolo
composto por multiplicação ou divisão. Por
exemplo, kN.cm, kΩ.mA, kV/mm, MΩ,
kV/ms, mW/cm2.
os símbolos de mesma unidade podem
coexistir em um símbolo composto por
divisão. Por exemplo, kWh/h, Ω.mm2/m.
Não se misturam unidades SI e não-SI. Por
exemplo, usar kg/m3 e não kg/ft3.
Para eliminar o problema de qual unidade e
múltiplo deve-se expressar uma quantidade
de relação como percentagem, fração
decimal ou relação de escala. Como
exemplos, a inclinação de 10 m por 100 m
pode ser expressa como 10%, 0.10 ou 1:10
e a tensão mecânica de 100 µm/m pode
ser convertida para 0,01 %.
Deve-se usar somente símbolos aceitos
das unidades SI. Por exemplo, o símbolo
correto para kilômetro por hora é km/h. Não
usar k.p.h., kph ou KPH.
Não se usa mais de uma barra (/) em
qualquer combinação de símbolos, a não
ser que haja parêntesis separando as
barras. Como exemplos, escrever m/s2 e
não m/s/s; escrever W/(m.K) ou (W/m)/K e
não (W/m/K.
Para a maioria dos nomes derivados como
um produto, na escrita do nome por
extenso, usa-se um espaço ou um hífen
para indicar a relação, mas nunca se usa
um ponto (.). Algumas unidades compostas
podem ser escritas como uma única
palavra, sem espaço ou hífen. Por
exemplo, a unidade de momento pode ser
escrita como newton metro ou newtonmetro e nunca newton.metro. Também, é
correto escrever watt hora, watt-hora ou
watthora, mas é incorreto watt.hora.
Para símbolos derivados de produtos, usase um ponto (.) entre cada símbolo
individual. Não usar o ponto (.) como
símbolo de multiplicação em equações e
cálculos. Exemplos:
N.m (newton metro)
Pa.s (pascal segundo)
kW.h ou kWh (kilowatthora)
Use 7,6 x 6,1 cosa e não 7,6.6,1.cosa
Deve-se ter cuidado para escrever
unidades compostas envolvendo potências.
Os modificadores quadrado e cúbico
devem ser colocados após o nome da
unidade a qual eles se aplicam. Para
potências maiores que três, usar somente
símbolos. Deve-se usar símbolos sempre
que a expressão envolvida for complexa.
Por exemplo, kg/m2 , N/m2
Para representações complicadas com
símbolos, usar parêntesis para simplificar e
esclarecer. Por exemplo, m.kg/(s3.A)
10
Sistema Internacional
3.9. Uso de Prefixo
Deve-se usar os prefixos com 10 elevado a
potência múltipla de 3
(10-3, 10-6, 103, 106). Deve-se usar a notação
científica para simplificar os casos de tabelas
ou equações com valores numéricos com
vários dígitos antes do marcador decimal e
para eliminar a ambigüidade da quantidade de
dígitos significativos. Por exemplo, usam-se:
mm (milímetro) para desenhos.
kPa (kilopascal) para pressão
kg/m3 (kilograma por metro cúbico)
para densidade absoluta.
Quando conveniente escolhem-se prefixos
resultando em valores numéricos entre 0,1 e
1000, porém, sem violar as recomendações
anteriores.
Em cálculos técnicos deve-se tomar muito
cuidado com os valores numéricos dos dados
usados. Para evitar erros nos cálculos, os
prefixos devem ser convertidos em potências
de 10 (exceto o kilograma, que é uma unidade
básica da massa). Exemplos:
5 MJ = 5 x 106 J
4 Mg = 4 x 103 kg
3 Mm = 3 x 106 m
Devem ser evitados prefixos no
denominador (exceto kg). Exemplos:
Escrever kJ/s e não J/ms
Escrever kJ/kg e não J/g
Escrever MJ/kg e não kJ/g
Não se misturam de prefixos, a não ser que
a diferença em tamanho seja extrema ou uma
norma técnica o requeira. Exemplos:
Correto: A ferramenta tem 44 mm de
largura e 1500 mm de comprimento.
Incorreto: A ferramenta tem 44 mm de
largura e 1,5 m de comprimento.
Não se usam unidades múltiplas ou prefixos
múltiplos. Por exemplo, Usa-se 15,26 m e não
15 m 260 mm; usa-se miligrama (mg) e não
microkilograma (µkg)
Não usar um prefixo sem a unidade.
Usar kilograma e não kilo
Usar megohm e não megs
3.10. Ângulo e Temperatura
Os símbolos de grau (o) e grau Celsius (oC)
devem ser usados quando se escreve uma
medição. Quando se descreve a escala de
medição e não uma medição, deve-se usar o
nome por extenso.Exemplos:
Os ângulos devem ser medidos em
graus e não em radianos.
O ângulo de inclinação é 27o.
Não se deve deixar espaço entre o e C,
devendo se escrever oC e não o C.
A maioria das temperaturas é dada na
escala Celsius; a escala Kelvin é usada
somente em aplicações científicas. Exemplo:
A temperatura normal do corpo humano é
36 oC.
Quando se tem uma série de valores de
temperatura ou uma faixa de temperatura, usar
o símbolo de medição somente após o último
valor. Exemplos:
A temperatura em Salvador varia de 18 a 39
oC.
As leituras do termômetro são: 100, 150 e
200 oC.
É tecnicamente correto usar prefixos SI com
os nomes e símbolos, como grau Celsius (oC),
kelvin (K) e grau angular (o). Porém, é
preferível evitar esta prática, pois os nomes
resultantes são confusos e difíceis de serem
reconhecidos. É preferível ajustar o coeficiente
numérico para não usar o prefixo.
Um método simples para comparar altas
temperaturas Celsius com temperaturas
Fahrenheit é que o valor Celsius é
aproximadamente a metade da temperatura
Fahrenheit. O erro percentual nesta
aproximação é relativamente pequeno para
valores Fahrenheit acima de 250. Para valores
menores, subtrair 30 antes de dividir por 2; isto
fornece uma precisão razoável até valores
Fahrenheit de -40.
3.11. Modificadores de Símbolos
As principais recomendações relacionadas
com os modificadores de símbolos são:
Não se pode usar modificadores dos
símbolos SI. Quando é necessário o uso de
modificadores das unidades, ele deve ser
separado do símbolo ou então escrito por
extenso. Por exemplo, não se usam Acc ou
Aca, para diferenciar a corrente contínua da
alternada. O correto é escrever 10 A cc ou 10 A
ca, com o modificador separado do símbolo.
Como o modificador não é SI, pode ser escrito
de modo arbitrário, como cc., c.c., dc ou
corrente contínua.
Nas unidades inglesas, é comum usar
sufixos ou modificadores nos símbolos e
abreviações para dar uma informação
adicional. Por exemplo, usam-se psia e psig
para indicar respectivamente, pressão absoluta
e manométrica. Psia significa pound square
inch absolute e psig significa pound square
inch gauge. No sistema SI, é incorreto colocar
sufixos para identificar a medição. Exemplos:
Usar pressão manométrica de 13 kPa ou 13
kPa (manométrica) e não 13 kPaG ou 13 kPag.
Usar pressão absoluta de 13 kPa ou 13 kPa
(absoluta) e não 13 kPaA ou 13 kPaa.
11
Sistema Internacional
Sempre deixar espaço após o símbolo da
unidade SI e qualquer informação adicional.
Exemplo:
Usar 110 V c.a. ou 110 V (ca) e não 110 V
CA ou 110 V ca, para voltagem de corrente
alternada.
A potência e a energia são medidas em
uma unidade SI determinada e não há
necessidade de identificar a fonte da
quantidade, desde que 100 watts é igual a 100
watts, independente da potência ser elétrica,
mecânica ou térmica. Exemplos:
Usar MW e não MWe (potência elétrica ou
megawatt elétrico).
Usar kJ e não kJt (kilojoule termal).
4. Algarismos Significativos
4.1. Introdução
O mundo da Metrologia é quantitativo e
depende de números, dados e cálculos.
Atualmente, os cálculos são feitos com
calculadoras eletrônicas e computadores, que
executam desde operações simples de
aritmética até operações que um engenheiro
nunca seria capaz de fazer manualmente. Os
microcomputadores se tornam uma parte
dominante da tecnologia, não apenas para os
engenheiros mas para toda sociedade. As
calculadoras e computadores podem
apresentar os resultados com muitos
algarismos, porém o resultado final deve ter o
número de algarismos significativos de acordo
com os dados envolvidos.
Quando se executam cálculos de
engenharia e apresentam-se os dados, devese ter em mente que os números sendo usados
tem somente um valor limitado de precisão e
exatidão. Quando se apresenta o resultado de
um cálculo de engenharia, geralmente se
copiam 8 ou mais dígitos do display de uma
calculadora. Fazendo isso, deduz-se que o
resultado é exato até 8 dígitos, um tipo de
exatidão que é raramente possível na prática
da engenharia. O número de dígitos que
podem ser apresentados é usualmente muito
menos que 8, por que ele depende de
problemas particulares e envolve outros
conceitos de algarismos significativos,
precisão, tolerância, resolução e conversão.
4.2. Conceito
Dígito é qualquer um dos numerais arábicos
0, 1, 2, 3, 4, 5, 6, 7, 8 e 9. Algarismo ou dígito
significativo em um número é o dígito que pode
ser considerado confiável como um resultado
de medições ou cálculos. O algarismo
significativo correto expressa o resultado de
uma medição de forma consistente com a
precisão medida. O número de algarismos
significativos em um resultado indica o número
de dígitos que pode ser usado com confiança.
Os algarismos significativos são todos aqueles
necessários na notação científica.
Qualquer dígito, entre 1 e 9 e todo zero que
não anteceda o primeiro dígito não zero e
alguns que não sucedam o último dígito não
zero é um algarismo significativo. O status do
zero é ambíguo, por que o zero também é
usado para indicar a magnitude do número.
Por exemplo, não há dificuldade em
determinar a quantidade de algarismos
significativos dos seguintes números:
708
3 algarismos significativos
54,9 3
algarismos significativos
3,6
2 algarismos significativos
8,04
3 algarismos significativos
980,9
4 algarismos significativos
0,830 06
5 algarismos significativos
Em um número, o dígito menos significativo
é o mais à direita, dígito mais significativo é o
mais à esquerda. Por exemplo, no número
2345, 2 é o dígito mais significativo e 5 é o
menos significativo.
Para qualquer número associado à medição
de uma grandeza, os algarismos significativos
devem indicar a qualidade da medição ou
computação sendo apresentada. Os dados de
engenharia e os resultados de sua computação
devem ser apresentados com um número
correto de algarismos significativos, para evitar
de dar uma impressão errada de sua exatidão.
A quantidade de algarismos significativos está
associado à precisão, exatidão e ao método de
obtenção destes dados e resultados.
4.3. Algarismo Significativo e o Zero
O zero nem sempre é algarismo
significativo, quando incluído em um número,
pois ele pode ser usado como parte
significativa da medição ou pode ser usado
somente para posicionar o ponto decimal.
Por exemplo, no número 804,301 os dois
zeros são significativos pois estão intercalados
entre outros dígitos.
Porém, no número 0,0007, os zeros são
necessários para posicionar a vírgula e dar a
ordem de grandeza do número e por isso pode
ser ou não significativo. Porém, se o número
0,0007 for a indicação de um instrumento
digital, ele possui quatro algarismos
significativos.
Também no número 20 000 os zeros são
necessários para dar a ordem de grandeza do
número e por isso nada se pode dizer acerca
de ser ou não ser significativo. Assim o status
do zero nos números 20 000 e 0,007 é
12
Sistema Internacional
ambíguo e mais informação é necessária para
dizer se o zero é significativo ou não. Quando
não há informação adicional, se diz que 0,0007
e 20 000 possuem apenas 1 algarismo
significativo.
No número 2,700, os zeros não são
necessários para definir a magnitude deste
número mas são usados propositadamente
para indicar que são significativos e por isso
2,700 possui quatro dígitos significativos..
4.4. Notação científica
Para eliminar ou diminuir as ambigüidades
associadas à posição do zero, o número deve
ser escrito na notação científica, com um
número entre 1 e 10 seguido pela potência de
10 conveniente. Usar a quantidade de
algarismos significativos válidos no número
entre 1 e 10, cortando os zeros no fim dos
inteiros quando não forem significativos ou
mantendo os zeros no fim dos inteiros, quando
forem significativos. Deste modo, se o número
20 000 for escrito na notação científica como
2,000 0 x 103, ele terá 5 dígitos significativos.
De modo análogo,
20 000 = 2 x 103
20 000 = 2,0 x 103
20 000 = 2,00 x 103
20 000 = 2,000 x103
1 dígito significativo
2 dígitos significativos
3 dígitos significativos
4 dígitos significativos
A ambigüidade do zero em números
decimais também desaparece, quando se
escreve os números na notação científica. Os
zeros à direita, em números decimais só
devem ser escritos quando forem
garantidamente significativos. Por exemplo,
0,567 000 possui 6 algarismos significativos,
pois se os três zeros foram escritos é porque
eles são significativos.
Assim, o número decimal 0,007 pode ser
escrito de diferentes modos, para expressar
diferentes dígitos significativos:
-3
7 x 10
7,0 x 10-3
7,000 x 10-3
7,000 00 x 10-3
1 dígito significativo
2 dígitos significativos
4 dígitos significativos
6 dígitos significativos
A notação científica serve também para se
escrever os números extremos (muito grandes
ou muito pequenos) de uma forma mais
conveniente Por exemplo, seja a multiplicação
dos números:
1 230 000 000 x 0,000 000 000 051 = 0,063
É mais conveniente usar a notação
científica:
(1,23 x 109) x (5,1 x 10-11) = 6,3 x 10-2
Na multiplicação acima, o resultado final é
arredondado para dois algarismos
significativos, que é o menor número de
algarismos das parcelas usadas no cálculo.
A multiplicação dos números com potência
de 10 é feita somando-se algebricamente os
expoentes.
Na notação científica, os números são
escritos em uma forma padrão, como o produto
de um número entre 1 e 10 e uma potência
conveniente de 10.
Por exemplo, os números acima podem ser
escritos como:
10 000 000 = 1,00 x 107 (3 dígitos significativos)
0,000 000 12 = 1,2 x 10-7(2 dígitos
significativos).
Pode-se visualizar o expoente de 10 da
notação científica como um deslocador do
ponto decimal. Por exemplo, o expoente +7
significa mover o ponto decimal sete casas
para a direita; o expoente -7 significa mover o
ponto decimal sete casas para a esquerda.
Para fazer manualmente os cálculos de
números escritos na notação científica, as
vezes, é conveniente colocá-los em forma não
convencional com o objetivo de fazer contas de
somar ou subtrair. Estas formas são obtidas
simplesmente ajustando simultaneamente a
posição do ponto decimal e os expoentes, a fim
de se obter os mesmos expoentes de 10.
Nesta operação, perde-se o conceito de
algarismos significativos.
Por exemplo:
1,2 x 10-4 + 4,1 x 10-5 + 0,3 x 10-3 =
1,2 x 10-4 + 0,41 x 10-4 + 3,0 x 10-4 =
(1,2 + 0,41 + 3,0) x 10-4 = 4,6 x 10-4
Deve-se evitar escrever expressões como
M = 1800 g, a não ser que se tenha o erro
absoluto máximo de 1 g. Rigorosamente, 1800
g significa (1800 ±1) g.
Quando não se tem esta precisão e quando
há suspeita do segundo dígito decimal ser
incorreto, deve-se escrever
M = (1,8 ± 0,1) x 103 g
Se o quarto dígito decimal é o duvidoso,
então, o correto é escrever
M = (1,800 ± 0,001) x 103 g
13
Sistema Internacional
4.5. Algarismo Significativo e a
Medição
Todos os números associados à medição
de uma grandeza física devem ter os
algarismos significativos correspondentes à
precisão do instrumento de medição. Observar
as três indicações analógicas apresentadas na
Fig.2.
O voltímetro analógico (a) indica uma
voltagem de 1,45 V. O último algarismo, 5, é
duvidoso e foi arbitrariamente escolhido.
Alguém poderia ler 1,49 e a leitura estaria
igualmente correta. Os algarismos confiáveis
são apenas o 1 e o 4; o último é estimado e
duvidoso. O voltímetro com uma escala com
esta graduação pode dar, no máximo, três
algarismos significativos. É errado dizer que a
indicação é de 1,450 ou 1,4500, pois está se
superestimando a precisão do instrumento. Do
mesmo modo, é impreciso dizer que a
indicação é de 1,4 pois é agora está se
subestimando a precisão do indicador e não
usando toda sua capacidade. Na medição 1,45,
o dígito 4 é garantido e no número 1,4 o dígito
4 é duvidoso. Para que o dígito 4 seja
garantido é necessário que haja qualquer outro
algarismo duvidoso depois dele.
Na Fig. 2 (b) tem-se a medição de uma
espessura por uma escala graduada. É
possível se ler 0,26, pois a espessura cai
exatamente no terceiro traço depois de 0,2 e a
medição possui apenas dois algarismos
significativos. Se pudesse perceber o ponteiro
entre o terceiro e o quarto traço, a medição
poderia ser 0,265 e a medição teria três
algarismos significativos.
Na Fig. 2(c), a indicação é 48,6 ou 48,5 ou
qualquer outro dígito extrapolado entre 0 e 9.
As medições da Fig. 2(a) e 1(c) possuem
três algarismos significativos e o terceiro dígito
de cada medição é duvidoso. A medição da
Fig. 2(b) possui apenas dois algarismos
significativos. Para se ter medições mais
precisas, com um maior número de algarismos
significativos, deve-se ter novo medidor com
uma escala maior e com maior número de
divisões.
Na Fig. 3, tem-se duas escalas de mesmo
comprimento, porém, a segunda escala possui
maior número de divisões. Para medir o
mesmo comprimento, a primeira escala
indicará 6,2 onde o dígito 2 é o duvidoso, pois
é escolhido arbitrariamente, pois está entre 6 e
7, muito próximo de 6. A leitura de 6,3 estaria
igualmente correta. A leitura da segunda escala
será 6,20 pois a leitura cai entre as divisões 2 e
3, também muito próximo de 2. Também
poderia ser lido 6,21 ou 6,22, que seria
igualmente aceitável.
Fig. 1.3. Escalas de mesmo tamanho mas com
diferentes divisões entre os dígitos.
Fig. 1.2 - Várias escalas de indicação
Em paquímetros e micrômetros, medidores
de pequenas dimensões, é clássico se usar a
escala vernier, para melhorar a precisão da
medida. A escala vernier é uma segunda
escala que se move em relação à principal. A
segunda escala é dividida em unidades um
pouco menores que as unidades da principal.
Por exemplo, observar a escala da Fig. 3, que
possui duas partes: a unidade principal e a
unidade decimal são lidas na escala superior e
a unidade centesimal é lida na escala inferior.
Para fazer a medição da distância X, primeiro
14
Sistema Internacional
se lê as unidades à esquerda da linha de
indicação da régua, que são 4,4. Depois a
leitura continua no centésimo, que é a linha da
escala inferior que se alinha perfeitamente com
a linha da escala principal. Neste exemplo,
elas se alinham na 6a linha, de modo que elas
indicam 0,06 e a medição final de X é 4,46.
Na expressão da medição, o valor é sempre
aproximado e deve ser escrito de modo que
todos os dígitos decimais, exceto o último,
sejam exatos. O erro admissível para o último
dígito decimal não deve exceder a 1.
Por exemplo, uma resistência elétrica de
1,35 Ω é diferente de uma resistência de
1,3500 Ω. Com a resistência elétrica de R =
1,35 Ω, tem-se erro de ±0,01 Ω, ou seja, 1,34 Ω
< R < 1,36 Ω.
Para a outra resistência de R = 1,3500 Ω a
precisão é de 0,0001 Ω, ou seja, 1,3499 Ω < R
< 1,3501 Ω
Se o resultado de um cálculo é R = 1,358 Ω
e o terceiro dígito depois da vírgula decimal é
incorreto, deve-se escrever R = 1,36 Ω.
Devem ser seguidas regras para apresentar
e aplicar os dados de engenharia na medição e
nos cálculos correspondentes. As vezes, os
engenheiros e técnicos não estão preocupados
com os algarismos significativos. Outras vezes,
as regras não se aplicam. Por exemplo,
quando se diz que 1 pé = 0,3048 metro ou 1
libra = 0,454 kilograma, o dígito 1 é usado
sozinho. O mesmo se aplica quando se usam
números inteiros em equações algébricas. Por
exemplo, o raio de um circuito é a metade do
diâmetro e se escreve: r = d/2. Na equação,
não é necessário escrever que r = d/2,0000,
pois se entende que o 2 é um número inteiro
exato.
Outra confusão que se faz na equivalência
se refere ao número de algarismos
significativos. Obviamente, 1 km equivale a
1.000 metros porém há diferenças práticas. Por
exemplo, o odômetro do carro, com 5 dígitos
pode indicar 89.423 km rodados, porém isso
não significa 89.423 000 metros, pois ele
deveria ter 8 dígitos. Se o odômetro tivesse 6
dígitos, com medição de 100 metros, ele
indicaria 89 423,6 km.
Por exemplo, as corridas de atletismo de
rua tem distâncias de 10 km, 15 km e 21 km.
As corridas de pista são de 100 m, 800 m,
5000 m e 10 000 m. Quem corre 10 km numa
corrida de rua correu aproximadamente 10 000
metros. A distância foi medida por carro, por
bicicleta com hodômetro calibrado ou por
outros meios, porém, não é possível dizer que
a distância é exatamente de 10.000 m. Porém,
quem corre 10 000 metros em uma pista
olímpica de 400 metros, deve ter corrido
exatamente 10 000 metros. A distância desta
pista foi medida com uma fita métrica,
graduada em centímetros. Poucas maratonas
no mundo são reconhecidas e certificadas
como de 42 195 km, pois a medição desta
distância é complicada e cara.
4.6. Algarismo Significativo e o
Display
Independente da tecnologia ou da função,
um instrumento pode ter display analógico ou
digital.
O indicador analógico mede uma variável
que varia continuamente e apresenta o valor
medido através da posição do ponteiro em uma
escala. Quanto maior a escala e maior o
número de divisões da escala, melhor a
precisão do instrumento e maior quantidade de
algarismos significativos do resultado da
medição.
O indicador digital apresenta o valor medido
através de números ou dígitos. Quanto maior a
quantidade de dígitos, melhor a precisão do
instrumento. O indicador digital conta dígitos ou
pulsos. Quando o indicador digital apresenta o
valor de uma grandeza analógica, internamente
há uma conversão analógico-digital e
finalmente, uma contagem dos pulsos
correspondentes.
Atualmente, a eletrônica pode contar pulsos
sem erros. Porém, não se pode dizer que o
indicador digital não apresenta erros, pois é
possível haver erros na geração dos pulsos.
Ou seja, a precisão do instrumento eletrônico
digital está relacionada com a qualidade dos
circuitos que convertem os sinais analógicos
em pulsos ou na geração dos pulsos.
Também os indicadores digitais possuem
uma precisão limitada. Neste caso, é direto o
entendimento da quantidade de algarismos
significativos. Nos displays digitais, o último
dígito é o também duvidoso. Na prática, é o
dígito que está continuamente variando.
Um indicador digital com quatro dígitos pode
indicar de 0,001 até 9999. Neste caso, os zeros
são significativos e servem para mostrar que é
possível se medir com até quatro algarismos
significativos. O indicador com 4 dígitos possui
4 dígitos significativos.
Fig. 1.5. Instrumento digital 4 ½ dígitos
15
Sistema Internacional
Em eletrônica digital, é possível se ter
indicadores com 4 ½ dígitos. O meio dígito está
associado com a percentagem de sobrefaixa
de indicação e somente assume os valores 0
ou 1. O indicador com 4 ½ dígitos pode indicar,
no máximo, 19 999, que é aproximadamente
100% de 9999 (20 000/10 000). Os quatro
dígitos variam de 0 a 9; o meio dígito só pode
assumir os valores 0 ou 1.
Embora exista uma correlação entre o
número de dígitos e a precisão da medição,
também deve existir uma consistência entre a
precisão da malha e o indicador digital do
display. Por exemplo, na medição de
temperatura com termopar, onde a precisão da
medição inclui a precisão do sensor, dos fios
de extensão, da junta de compensação e do
display. Como as incertezas combinadas do
sensor, dos fios e da junta de compensação
são da ordem de unidades de grau Celsius,
não faz nenhum sentido ter um display que
indique, por exemplo, décimo ou centésimo de
grau Celsius. Por exemplo, na medição de
temperatura com termopar tipo J, onde a
precisão resultante do sensor, fios e junta de
compensação é da ordem de ±5 oC, na faixa de
0 a 100 oC, o display digital basta ter 2 ½, para
indicar, por exemplo, 101 oC. Não faz sentido
ter um display indicando 98,2 ou 100,4 oC pois
a incerteza total da malha é da ordem de ±5 oC.
O mesmo raciocínio vale para um display
analógico, com escala e ponteiro.
4.7. Algarismo Significativo e
Calibração
Todos os instrumentos devem ser
calibrados ou rastreados contra um padrão.
Mesmo os instrumentos de medição, mesmo
os instrumentos padrão de referência devem
ser periodicamente aferidos e calibrados. Por
exemplo, na instrumentação, tem-se os
instrumentos de medição e controle, que são
montados permanentemente no processo.
Antes da instalação, eles foram calibrados.
Quando previsto pelo plano de manutenção
preventiva ou quando solicitado pela operação,
estes instrumentos são aferidos e recalibrados.
Para se fazer esta calibração, devem ser
usados também instrumentos de medição,
como voltímetros, amperímetros, manômetros,
termômetros, décadas de resistência, fontes de
alimentação. Estes instrumentos, geralmente
portáteis, também devem ser calibrados por
outros da oficina. Os instrumentos da oficina
devem ser calibrados por outros de laboratórios
do fabricante ou laboratórios nacionais. E
assim, sobe-se na escada de calibração.
É fundamental entender que a precisão do
padrão de referência deve ser melhor que a do
instrumento sob calibração. Quanto melhor? A
resposta é um compromisso entre custo e
precisão. Como recomendação, a precisão do
padrão deve ser entre quatro a dez (NIST) ou
três a dez (INMETRO) vezes melhor que a
precisão do instrumento sob calibração. Abaixo
de três ou quatro, a incerteza do padrão é da
ordem do instrumento sob calibração e deve
ser somada à incerteza dele. Acima de dez, os
instrumentos começam a ficar caro demais e
não se justifica tal rigor.
Assim, para calibrar um instrumento com
precisão de 1%, deve-se usar um padrão com
precisão entre 0,3% a 0,1%.
Quando se usa um padrão de 1% para
calibrar um instrumento de medição com
precisão de 1%, o erro do instrumento de
medição passa para 2%, por que
1% + 1% = 2% ou (0,01 + 0,01 = 0,02)
Quando se usa um padrão de 0,1% para
calibrar um instrumento de medição com
precisão de 1%, o erro do instrumento de
medição permanece em 1%, porque 1% +
0,1% = 1% (1+ 0,1 = 1).
Além da precisão do padrão de referência, é
também importante definir a incerteza do
procedimento de calibração, para que ele seja
confiável.
4.8. Algarismo Significativo e a
Tolerância
O número de dígitos decimais colocados à
direita da vírgula decimal indica o máximo erro
absoluto. O número total de dígitos decimais
corretos, que não incluem os zeros à esquerda
do primeiro dígito significativo, indica o máximo
erro relativo. Quanto maior o número de
algarismos significativos, menor é o erro
relativo.
A precisão pretendida de um valor deve se
relacionar com o número de algarismos
significativos mostrados. A precisão é mais ou
menos a metade do último dígito significativo
retido. Por exemplo, o número 2,14 pode ter
sido arredondado de qualquer número entre
2,135 e 2,145. Se arredondado ou não, uma
quantidade deve sempre ser expressa com a
notação da precisão em mente. Por exemplo,
2,14 polegadas implica uma precisão de ±
0,005 polegada, desde que o último algarismo
significativo é 0,01.
Pode haver dois problemas:
1. Quantidades podem ser expressas em
dígitos que não pretendem ser
significativos. A dimensão 1,1875" pode
realmente ser muito precisa, no caso do
quarto dígito depois da vírgula ser
16
Sistema Internacional
significativo ou ela pode ser uma
conversão decimal de uma dimensão como
1 3/16, no caso em que a dimensão é dada
com excesso de algarismos significativos.
2. Quantidades podem ser expressas
omitindo-se os zeros significativos. A
dimensão de 2" pode significar cerca de 2"
ou pode significar uma expressão muito
precisa, que deveria ser escrita como
2,000". No último caso, enquanto os zeros
acrescentados não são significativos no
estabelecimento do valor, elas são muito
significativos em expressar a precisão
adequada conferida.
Portanto, é necessário determinar uma
precisão implicada aproximada antes do
arredondamento. Isto pode ser feito pelo
conhecimento das circunstâncias ou pela
informação da precisão do equipamento de
medição.
Se a precisão da medição é conhecida, isto
fornecerá um menor limite de precisão da
dimensão e alguns casos, pode ser a única
base para estabelecer a precisão. A precisão
final nunca pode ser melhor que a precisão da
medição.
A tolerância em uma dimensão dá uma boa
indicação da precisão indicada, embora a
precisão, deva ser sempre menor que a
tolerância. Uma dimensão de 1,635 ±0,003"
possui precisão de ±0,0005", total 0,001" . Uma
dimensão 4,625 ±0,125" está escrita
incorretamente, provavelmente por causa da
decimalização das frações. O correto seria
4,62 ±0,12, com uma precisão indicada de ±
0,005 (precisão total de 0,01)
Uma regra útil para determinar a precisão
indicada a partir do valor da tolerância é
assumir a precisão igual a um décimo da
tolerância. Como a precisão indicada do valor
convertido não deve ser melhor do que a do
original, a tolerância total deve ser dividida por
10 e convertida e o número de algarismos
significativos retido.
4.9. Algarismo Significativo e
Conversão
Uma medição de variável consiste de um
valor numérico e de uma unidade. A unidade
da medição pode ser uma de vários sistemas.
Na conversão de um sistema para outro, o
estabelecimento do número correto de
algarismos significativos nem sempre é
entendido ou feito adequadamente. A retenção
de um número excessivo de algarismos
significativos resulta em valores artificiais
indicando uma precisão inexistente e
exagerada. O corte de muitos algarismos
significativos resulta na perda da precisão
necessária. Todas as conversões devem ser
manipuladas logicamente, considerando-se
cuidadosamente a precisão pretendida da
quantidade original. A precisão indicada é
usualmente determinada pela tolerância
especifica ou por algum conhecimento da
quantidade original. O passo inicial na
conversão é determinar a precisão necessária,
garantindo que não é nem exagerada e nem
sacrificada. A determinação do número de
algarismos significativos a ser retido é difícil, a
não ser que sejam observados alguns
procedimentos corretos.
A literatura técnica apresenta tabelas
contendo fatores de conversão com até 7
dígitos.
A conversão de quantidades de unidades
entre sistemas de medição envolve a
determinação cuidadosa do número de dígitos
a serem retidos depois da conversão feita.
Converter 1 quarto de óleo para 0,046 352 9
litros de óleo é ridículo, por que a precisão
pretendida do valor não garante a retenção de
tantos dígitos. Todas as conversões para
serem feitas logicamente, devem depender da
precisão estabelecida da quantidade original
insinuada pela tolerância especifica ou pela
natureza da quantidade sendo medida. O
primeiro passo após o cálculo da conversão é
estabelecer o grau da precisão.
O procedimento correto da conversão é
multiplicar a quantidade especificada pelo fator
de conversão exatamente como dado e depois
arredondar o resultado para o número
apropriado de algarismos significativos à direita
da vírgula decimal ou para o número inteiro
realístico de acordo com o grau de precisão
implicado no quantidade original.
Por exemplo, seja um comprimento de 75 ft,
onde a conversão métrica é 22,86 m. Se o
comprimento em pés é arredondado para o
valor mais próximo dentro de 5 ft, então é
razoável aproximar o valor métrico próximo de
0,1 m, obtendo-se 22,9 m. Se o
arredondamento dos 75 ft foi feito para o valor
inteiro mais próximo, então o valor métrico
correto seria de 23 m. Enfim, a conversão de
75 ft para 22,86 m é exagerada e incorreta; o
recomendável é dizer que 75 ft eqüivalem a 23
m.
Outro exemplo envolve a conversão da
pressão atmosférica padrão, do valor nominal
de 14,7 psi para 101,325 kPa. Como o valor
envolvido da pressão é o nominal, ele poderia
ser expresso com mais algarismos
significativos, como 14,693 psi, onde o valor
métrico correspondente seria 101,325, com
três dígitos depois da vírgula decimal. Porém,
quando se estabelece o valor nominal de 14,7
17
Sistema Internacional
o valor correspondente métrico coerente é de
101,3, com apenas um dígito depois da vírgula.
4.10. Computação matemática
Na realização das operações aritméticas,
cada número no cálculo é fornecido com um
determinado número de algarismos
significativos e o resultado final deve ser
expresso com um número correto de
algarismos significativos. Quando se fazem as
operações aritméticas, deve-se seguir as
seguintes recomendações.
1. Fazer a computação de modo que haja
um número excessivo de dígitos.
2. Arredonde o número correto de
algarismos significativos. Para
arredondar, aumente o último número
retido de 1, se o primeiro número
descartado for maior que 5. Se o dígito
descartado for igual a 5, o último dígito
retido deve ser aumentado de 1 somente
se for ímpar. Se o dígito descartado for
menor que 5, o último dígito retido
permanece inalterado.
3. Para multiplicação e divisão, arredonde
de modo que o número de algarismos
significativos no resultado seja igual ao
menor número de algarismos
significativos contidos nas parcelas da
operação.
4. Para adição e subtração, arredonde de
modo que o dígito menos significativo
(da direita) do resultado corresponda ao
algarismo mais significativo duvidoso
contido na adição ou na subtração.
5. Para combinações de operações
aritméticas, fazer primeiro as
multiplicações e divisões, arredondar
quando necessário e depois fazer a
somas e subtrações. Se as somas e
subtrações estão envolvidas para
posterior multiplicação e divisão, fazelas, arredondar e depois multiplicar e
dividir.
6. Em cálculos mais complexos, como
solução de equações algébricas
simultâneas, quando for necessário obter
resultados intermediários com
algarismos significativos extras, garantir
que os resultados finais sejam
razoavelmente exatos, usando o bom
senso e deixando de lado as regras
acima.
7. Quando executar os cálculos com
calculadora eletrônica ou
microcomputador, também ter bom
senso e não seguir as regras
rigorosamente. Não é necessário
interromper a computação em cada
estágio para estabelecer o número de
algarismos significativos. Porém, depois
de completar a computação, considerar
a precisão global e arredondar os
resultados corretamente.
8. Em qualquer operação, o resultado final
deve ter uma quantidade de algarismos
significativos igual à quantidade da
parcela envolvida com menor número de
significativos.
Exemplos de arredondamento para três
algarismos significativos:
1,8765
8,455
6,965
10,580
1,88
8,46
6,96
10,6
Soma e Subtração
Quando se expressam as quantidades de
massa como M = 323,1 g e m = 5,722 g
significa que as balanças onde foram pesadas
as massas tem classes de precisão muito
diferentes. A balança que pesou a massa m é
cem vezes mais precisa que a balança de M. A
precisão da balança de M é 0,1 g; a precisão
da balança de m é de 0,001 g.
Somando-se os valores de (m + M) obtémse o valor correto de 328,8 g. O valor 328,822
g é incorreto pois a precisão do resultado não
pode ser melhor que a precisão da pior
balança. Para se obter este resultado,
considerou-se a massa M = 323,100,
inventando-se por conta própria dois zeros. Em
vez de se inventar zeros arbitrários,
desprezam-se os dígitos conhecidos da
medição de m; arredondando 5,722 para 5,7.
O valor correto de 328,8 pode ser obtido
através de dois caminhos diferentes:
1. arredondando-se os dados
M = 323,1 g
m = 5,7 g
--------------M + m = 328,8 g
2. arredondando-se o resultado final
M = 323,1 g
m = 5,722 g
--------------M + m = 328,822 g = 328,8 g
Deste modo, o número de algarismos
significativos da soma é igual ao número da
parcela com o menor número de algarismos
significativos.
Quando há várias parcelas sendo somadas,
o erro pode ser maior se as parcelas forem
arredondadas antes da soma. Recomenda-se
usar a regra do dígito decimal de reserva,
18
Sistema Internacional
quando os cálculos são feitos com um dígito
extra e o arredondamento é feito somente no
final da soma.
Exemplo 1
Seja a soma:
132,7 + 1,274 + 0,063321 + 20,96 + 46,1521
Com qualquer método, o resultado final
deve ter apenas um algarismo depois da
vírgula, pois a parcela 132,7 tem apenas um
algarismo depois da vírgula.
Se todas as parcelas forem arredondadas
antes da soma, se obtém
132,7 + 1,3 + 0,1 + 21,0 + 46,2 = 201,3
Usando-se a regra do dígito reserva, tem-se
132,7 + 1,27 + 0,06 + 20,96 + 46,15 =
201,14
Fazendo-se o arredondamento no final, temse 201,14 = 201,1.
Exemplo 2
Achar a soma das raízes quadradas dos
seguintes números, com precisão de 0,01
N = 5+ 6+ 7+ 8
Usando-se a regra do dígito decimal
reserva, tomam-se os dados com precisão de
0,001.
2,236 + 2,449 + 2,646 + 2,828 = 10,159
Arredondando-se no final, tem-se 10,16.
Sem a regra do dígito decimal reserva seria
10,17 (verificar).
Quando o número de parcelas é muito
grande (centenas ou milhares), recomenda-se
usar dois dígitos decimais reservas. Quando se
somam várias parcelas com o mesmo número
de algarismos depois da vírgula decimal, devese considerar que o máximo erro absoluto da
soma é maior do que das parcelas. Por isso, é
prudente arredondar para um dígito a menos.
Exemplo 3
Determinar a soma
1,38 +8,71 + 4,48 + 11,96 + 7,33 = 33,86
Porém, o resultado mais conveniente é
33,9, com três algarismos significativos, que é
o menor número de significativos das parcelas.
O máximo erro absoluto de uma soma ou
diferença é igual à soma dos erros máximos
absolutos das parcelas. Por exemplo, tendo-se
duas quantidades com precisões de 0,1 é
lógico entender que a soma ou diferença
destas quantidades são determinadas com
precisão de 0,2, por que, na pior situação, os
erros se somam. Quando há muitas parcelas, é
improvável que todos os erros se somem.
Nestes casos, usam-se métodos de
probabilidade para estimar o erro da soma. Um
critério é arredondar, desprezando-se o último
algarismo significativo. Ou seja, quando todas
as parcelas tiverem n algarismos significativos,
dar o resultado com (n-1) algarismos
significativos.
As regras da subtração são essencialmente
as mesmas da soma. Deve-se tomar cuidado
quando se subtraem dois números muito
próximos, pois isso provoca um grande
aumento do erro relativo.
Exemplo 4
(327,48 ± 0,01) - (326,91 ± 0,01) =
(0,57 ± 0,02)
O erro relativo de cada parcela vale
aproximadamente 0,01/300 = 0,003%.
O erro relativo do resultado vale cerca de
(0,02/0,57) = 3,5%, que é mais de 1000 vezes
maior que o erro relativo das parcelas.
Quanto mais à esquerda, mais significativo
é o dígito. O dígito na coluna dos décimos é
mais significativo que o dígito na coluna dos
centésimos. O dígito na coluna das centenas é
mais significativo que o dígito na coluna das
dezenas .
O resultado da soma ou subtração não
pode ter mais algarismos significativos ou
dígitos depois da vírgula do que a parcela com
menor número de algarismos significativos.
Multiplicação e Divisão
Quando se multiplicam ou dividem dois
números com diferentes quantidades de dígitos
corretos depois da vírgula decimal, o número
correto de dígitos decimais do resultado deve
ser igual ao menor dos números de dígitos
decimais nos fatores.
Exemplo 5
Achar a área S do retângulo com
a = 5,2 m
b = 43,1 m
É incorreto dizer que a área S = 224,12 m2. Na
realidade,
a está entre 5,1 e 5,3
b está entre 43,0 e 43,2
Assim, a área S está contida entre
219,3 cm2 (5,1 x 43,0)
228,96 cm2 (5,3 x 43,2)
19
Sistema Internacional
Assim, os dígitos depois do segundo
algarismo significativo são duvidosos e a
resposta correta para a área é:
S = 2,2 x 102 cm2
O número de dígitos decimais corretos e o
máximo erro relativo indicam qualidades
semelhantes ligadas com o grau de precisão
relativa. A multiplicação ou divisão de números
aproximados provocam a adição dos erros
relativos máximos correspondentes.
No exemplo do cálculo da área do
retângulo, o erro relativo de a (5,1) é muito
maior que o de b ( 43,1) e por isso o erro
relativo da área S é aproximadamente igual ao
de a. S tem a mesma quantidade de
algarismos significativos que a; ambos tem dois
algarismos.
Se os fatores do produto são dados com
quantidades diferentes de algarismos decimais
corretos, deve-se arredondar os números antes
da multiplicação, deixando um algarismo
decimal reserva, que é descartado no
arredondamento do resultado final. quando há
mais que 4 fatores com igual número de dígitos
decimais corretos (n), o resultado deve ter (n-1)
dígitos decimais corretos.
Exemplo 6
Calcular o calor gerado por uma corrente
elétrica I percorrendo uma resistência R
durante o tempo t, através de
Q = 0,24 I2 R t
Como a constante (0,24) tem dois dígitos
decimais corretos, o resultado final só poderá
ter dois dígitos depois da vírgula. Assim, não
se justifica praticamente tomar valores de I, R e
t com mais de três dígitos decimais corretos (o
terceiro dígito já é o decimal reserva a ser
descartado no final).
As constantes não afetam o número de
dígitos decimais corretos no produto ou divisão.
Por exemplo, o perímetro do círculo com raio r,
dado pela expressão L = 2 π r, o valor de 2 é
exato e pode ser escrito como 2,0 ou 2,000 ou
como se quiser. A precisão dos cálculos
depende apenas da quantidade de dígitos
decimais da medição do raio r. O número π
também é conhecido e a quantidade de
significativos pode ser tomada arbitrariamente.
Exemplo 7
Calcular
para estimar o valor das parcelas, calculam-se
estas parcelas com o arredondamento correto.
Como 5,4 possui apenas dois algarismos
significativos, tomam-se as parcelas com três
algarismos (com um dígito decimal reserva) e
arredonda-se o resultado final para dois
algarismos significativos.
11,32 = 127,7 x 5,4 = 690
0,381 x 9,1 = 3,47 = 3
7,43 x 21,1 = 157
Resultado final = 850
Resultado correto: 8,5 x 102
O cálculo com dígitos desnecessários é
inútil e pode induzir a erros, pois podem dar a
ilusão de uma precisão maior que a realmente
existe.
Todos os graus de precisão devem ser
coerentes entre si e em cada estágio dos
cálculos. Nenhum dos graus de precisão deve
ser muito menor ou maior do que o correto.
Exemplo 8
Seja
x = 215
y = 3,1
Calcular:
x+y
x-y
x/y
y/x
determinando:
1. resultado calculado
2. limite superior calculado
3. limite inferior calculado
4. resultado final correto
Tab. 1.4. Resultados
Operação
x+y
x-y
x.y
x/y
y/x
Resultado
218,1
211,9
666,5
69,3548
0,01442
Limite sup
219,2
213,0
691,2
72,0000
0,01495
Limite inf
217,0
210,8
642,0
66,8750
0,01389
x.y
Resultado
218
212
6,7x102
69
0,014
A quantidade x = 215 é definida por três
algarismos significativos de modo que o dígito
5 é o menos significativo e duvidoso. Como ele
é incorreto por ±1, então o limite superior é 216
e o inferior é 214.
A quantidade y = 3,1 tem dois algarismos
significativos e tem incerteza de ±0,1, variando
entre 3,2 e 3,3. Os limites superiores
mostrados na tabela são a soma dos limites
inferiores de x e y. No resultado final, se deve
considerar só um dígito duvidoso, e quando
possível, com apenas dois dígitos
significativos.
D = 11,32 x 5,4 + 0,381 x 9,1 + 7,43 x 21,1
20
Sistema Internacional
Exemplo 9
Determinar a área de um quadrado com
lado de (10 ±1) metro.
A área nominal do quadrado é igual a 100,
que é o produto de 10 x 10. Porém, a incerteza
de ±1 metro em cada lado do quadrado é
multiplicada pelo outro lado, de modo que a
incerteza total da área do quadrado é de ±21
metros! Chega-se a este resultado
multiplicando-se 10 ± 1 por 10 ± 1:
10 ± 1
10 ± 1
_____
100 ± 10
±10 ± 1
_________
100 ± 20 ± 1
portanto
100 ± 21
ou mais rigorosamente
(100 -19 + 21) m2.
Outro modo de se chegar a este resultado é
considerar que cada lado de 10 ± 1 metro varia
de 9 a 11 metros e por isso as áreas finais
variam de um mínimo de 81 (9 x 9) e um
máximo de 121 (11 x 11) e como a área
nominal é de 100, o valor com a tolerância é de
100 - 19 (81) +21 (121).
Este exemplo é interessante pois é análogo
ao cálculo da incerteza de uma grandeza que
depende de duas outras grandezas. A
incerteza da grandeza resultante é igual à
derivada parcial da grandeza principal em
relação a uma grandeza vezes a incerteza
desta grandeza mais a derivada parcial da
grandeza principal em relação a outra
grandeza vezes a incerteza desta outra
grandeza. Ou seja, em matemática, quando
z = f(x, y)
com
x = x ± ∆x
y = y ± ∆y
a incerteza ∆z é igual a
∆z = y
∂f
∂f
+x
∂x
∂y
4.11. Algarismos e resultados
Devem ser estabelecidas algumas regras
para determinar as incertezas para que todas
informações contidas na expressão sejam
entendidas universalmente e de modo
consistente entre quem escreve e quem lê.
Como a quantidade δx é uma estimativa de
uma incerteza, obviamente ela não deve ser
estabelecida com precisão excessiva. Por
exemplo, é estupidez expressar o resultado da
medição da aceleração da gravidade g como
gmedida = 9,82 ± 0,0312 956 m/s2
A expressão correta seria
gmedida = 9,82 ± 0,03 m/s2
Regra para expressar incertezas:
Incertezas industriais devem ser quase
sempre arredondadas para um único algarismo
significativo.
Uma conseqüência prática desta regra é
que muitos cálculos de erros podem ser feitos
mentalmente, sem uso de calculadora ou
mesmo de lápis e papel.
Esta regra tem somente uma exceção
importante. Se o primeiro algarismo na
incerteza δx é 1, então é recomendável se
manter dois algarismos significativos em δx.
Por exemplo, se um cálculo resulta em uma
incerteza final de
δx = 0,14, um arredondamento para δx = 0,1 é
uma redução proporcional muito grande de
modo que é razoável reter dois algarismos
significativos para expressar δx = 0,14. O
mesmo argumento poderia ser usado se o
primeiro número for 2, porém a redução não é
tão grande (metade da redução se o algarismo
fosse 1).
Assim que a incerteza na medição é
estimada, os algarismos significativos do valor
medido devem ser considerados. Uma
expressão como
velocidade medida = 6 051,78 ± 30 m/s
é certamente bem ridícula. A incerteza de 30
significa que o dígito 5 pode ser realmente tão
pequeno quanto 2 ou tão grande quanto 8.
Claramente, os dígitos 1, 7 e 8 que vem depois
do 5 não tem nenhum significado prático.
Assim, a expressão correta seria
velocidade medida = 6050± 30 m/s
Regra para expressar resultados
O último algarismo significativo em
qualquer expressão do resultado
deve ser usualmente da mesma
ordem de grandeza (mesma
posição decimal) que a incerteza.
21
Sistema Internacional
Por exemplo, para uma expressão de
resultado 78,43 com uma incerteza de 0,04
seria arredondada para
78,43 ± 0,04
Se a incerteza fosse de 0,4 então ficaria
78,4 ± 0,4
Se a incerteza fosse de 4, a expressão
ficaria
78 ± 4
Finalmente, se a incerteza fosse de 40,
seria
80 ± 40
Para reduzir incertezas causadas pelo
arredondamento, quaisquer números usados
nos cálculos intermediários devem
normalmente reter, no mínimo, um algarismo a
mais do que o finalmente justificado. No final
dos cálculos, faz o último arredondamento para
eliminar o algarismo extra insignificante.
A incerteza em qualquer quantidade medida
tem a mesma dimensão que a quantidade
medida em si. Assim, escrevendo as unidades
(m/s2, g/cm3, A, V, oC ) após o resultado e a
incerteza é mais claro e mais econômico.
Exemplo
densidade medida = 8,23 ± 0,05 g/cm3 ou
densidade medida = (8,23 ± 0,05) g/cm3
Quando se usa a notação científica, com
números associados a potências de 10, é
também mais simples e claro colocar o
resultado e a incerteza na mesma forma.
Por exemplo:
corrente medida = (2,54 ± 0,02) x 10-6 A
é mais fácil de ler e interpretar do que na
forma:
corrente medida = 2,54 x 10-6 ± 2 x 10-8 A
Apostilas\Metrologia
2SistemsSI.DOC
22 SET 98 (Substitui 05 ABR 98)
22
2. Estatística da Medição
Objetivos de Ensino
1. Apresentar os fundamentos de estatística aplicados à medição, como média, desvio,
distribuição, flutuação, faixa de variação e intervalo.
2. Mostrar as expressões matemáticas e significados físicos das diferentes médias:
aritmética, ponderada e geométrica.
3. Apresentar os diferentes tipos de desvio: desvio do valor médio, de população e da
amostra.
4. Conceituar os parâmetros de medida da precisão: desvio padrão e variância.
5. Mostrar a distribuição normal e suas propriedades.
6. Apresentar os intervalos de confiança da medição.
7. Mostrar o tratamento das medidas com grandes desvios.
8. Conceituar o método de regressão para curvas de calibração.
1. Estatística Inferencial
1.1. Introdução
A premissa básica da metrologia é:
nenhuma medição é sem erro. Ou na lógica
positiva: toda medição possui erro. Por isso,
nem o valor exato da medição e nem o erro
associado com a medição pode ser conhecido
exatamente. Na metrologia, como na física,
existe o princípio desconfortável da
indeterminação. As incertezas e os erros da
medição devem ser tratados metodicamente
para que as medições práticas tenham alguma
utilidade e confiabilidade.
A confiabilidade da medição não depende
somente das variações nas entradas
controladas mas também das variações em
fatores incontrolados e desconhecidos.
O operador é quem faz a medição e toma
nota do resultado. Ele pode cometer erros
grosseiros e acidentais nestas tarefas. O
equipamento de suporte do instrumento de
medição incluem outros instrumentos
auxiliares. As condições de contorno do
instrumento de medição podem influir no seu
desempenho. Estas condições incluem a
temperatura, umidade, pressão ambiente,
vibração, choque mecânico, alimentação
externa. O instrumento de medição é o elo
mais importante de toda o sistema de medição.
É ele que faz a medição e espera-se que ele
não influa no valor da medição feita.
1.2. Conceito
A ciência da estatística envolve a coleta,
organização, descrição, análise e interpretação
de dados numéricos. A estatística é a parte da
matemática que fornece um método
organizado para manipular dados que
apresentem variações aleatórias. A estatística
revela somente a informação que já está
presente em um conjunto de dados. Nenhuma
informação nova é criada pela estatística. O
tratamento estatístico de um conjunto de dados
permite fazer julgamentos objetivos
relacionados com a validade de resultados. A
estatística permite olhar os dados de modos
diferentes e tomar decisões objetivas e
inteligentes quanto à sua qualidade e uso.
A metrologia usa estatística por vários
objetivos:
1. entender, controlar e determinar os erros
da medição
2. facilitar a coleta de dados adequados e
confiáveis relacionados com a medição
3. entender e calcular melhor as incertezas
associadas à medição
4. controlar a qualidade da mão de obra e
dos materiais produzidos na indústria.
Os métodos estatísticos podem ser úteis
para determinar
1. o valor mais provável de uma medição, a
partir de um conjunto limitado de
medições,
2. o erro provável de uma medição e
3. o valor da incerteza na melhor resposta
obtida.
Um dado individual é imprevisível e
aleatório. Porém, grupos de dados aleatórios
são previsíveis e determinísticos. Por exemplo,
23
Estatística da Medição
o lançamento de um único dado é aleatório e
não determinístico. Qualquer um dos lados, 12-3-4-5-6, é igualmente provável. Porém,
quando se lançam dois dados, a soma dos
lados já é determinística e não aleatória. A
soma 2 (1+1) ou 12 (6+6) é menos provável
que a soma 7 (6+1, 5+2, 4+3).
A base da estatística na medição é a
replicação, que é a tomada múltipla e repetida
da medição em valores individuais da
quantidade. Quando se faz apenas uma
medição sujeita aos erros aleatórios, obtém-se
pouca informação. Quando se fazem muitas
medições repetidas da mesma quantidade, os
erros aleatórios aparecem como um
espalhamento em torno da média destas
medições. O espalhamento é causado pelas
variações da medição, que devem ser
consideradas e pelas variações das
características do sistema de medição, que
devem ser eliminadas. As variações aleatórias
podem ser uma conseqüência natural das
experiências ou uma inevitável deficiência do
sistema de medição das variações de processo
e a estatística tem meios de identificar e
separar estas causas.
O objetivo do tratamento estatístico não é o
de eliminar a variabilidade das medições - o
que é impossível - mas o de restringir esta
variabilidade dentro de limites economicamente
realizáveis e estabelecer graus de
probabilidade de sua localização.
A análise estatística não melhora a precisão
de uma medição. As leis da probabilidade
usadas pela estatística se aplicam somente em
erros aleatórios e não nos erros sistemáticos
ou do operador. Assim, antes de fazer o
tratamento estatístico dos erros aleatórios,
deve-se cuidar de eliminar ou diminuir os erros
sistemáticos e evitar os erros de operação.
A precisão de um instrumento que descreve
a concordância entre várias medições
replicadas pode ser medida através dos
parâmetros estatísticos como desvio padrão,
variância e espalhamento das medições.
Por exemplo, se um instrumento está com
um erro de calibração de zero, um tratamento
estatístico não removerá este erro. Porém, a
análise estatística de dois métodos de medição
diferentes pode demonstrar a discrepância
entre eles.
A estatística descritiva usa tabelas, gráficos
e métodos numéricos para resumir conjuntos
de dados da população total ou de amostras.
A estatística inferencial pode
1. definir o intervalo em torno da média de
um conjunto dentro do qual a média da
população deve estar, com uma dada
probabilidade;
2. determinar o número de medições
replicadas necessárias para garantir,
com uma dada probabilidade, que uma
média experimental caia dentro de um
intervalo predeterminado em torno da
média da população;
3. decidir se um valor distante no conjunto
de resultados replicados deve ser
mantido ou rejeitado no cálculo da média
para o conjunto;
4. manipular os dados da calibração.
Fig. 2.1. Inferência estatística
1.3. Variabilidade da Quantidade
As medições repetidas de um mesmo valor
exibem variações. Estas variações são
causadas por diferenças em materiais,
equipamentos, instrumentos, instalações,
operações, condições, problemas, reações
psicológicas e condições climáticas.
Geralmente se tem muitas variações pequenas
e poucas grandes variações (diagrama de
Paretto).
Às vezes, ocorre uma variação não usual,
maior que todas as outras, por uma ou pela
combinação das seguintes causas:
1. material diferente da batelada,
2. novo ajuste do equipamento
3. nova calibração do instrumento de
medição
4. substituição do operador
5. jogo da seleção brasileira de futebol
6. festa de Carnaval, São João ou Natal.
A experiência mostra que há diferenças
definidas detectáveis entre o padrão natural e o
não natural. É possível descobrir e estudar
estas diferenças por meio de cálculos simples
baseados na estatística. Assim que se conhece
o padrão natural, é possível encontrar as
causas das anormalidades.
As medições de uma mesma variável do
processo tendem a se agrupar em torno de um
valor central, tipicamente a média aritmética,
24
Estatística da Medição
com uma certa variação de dispersão em cada
lado. O padrão ou formato desenhado pelas
medições agrupadas é chamado de
distribuição da freqüência.
Se as causas que produzem as medições
permanecem inalteradas, a distribuição tende a
ter certas características estáveis, que se
tornam ainda mais definidas quando se
aumenta o número de medições. Se o sistema
de causa é constante, a distribuição observada
tende a se aproximar de um limite estatístico,
segundo uma lei ou função de distribuição.
A experiência mostra que a distribuição e a
flutuação estão relacionadas estatisticamente.
A distribuição é uma massa composta de
flutuações e a flutuação está confinada dentro
dos limites de uma distribuição.
Com relação às distribuições e flutuações,
pode-se dizer que
1. Tudo varia.
2. As coisas individuais são imprecisas.
3. Os grupos de coisas de um sistema
constante de causas tendem a ser
previsíveis.
Por exemplo,
1. As pessoas vivem até diferentes idades.
2. Ninguém sabe quanto tempo ele viverá.
3. As companhias de seguro podem prever
com precisão a percentagem de pessoas
que viverão até 50, 60, 70 e 80 anos.
Outro exemplo,
1. Ninguém escreve a letra a duas vezes
do mesmo modo.
2. Não se pode saber como o próximo a
será diferente do último.
3. O grafologista sabe reconhecer a letra
de uma pessoa.
2. População e Amostra
Uma premissa básica da teoria da
probabilidade é que ela trata somente de
eventos aleatórios. Um evento aleatório é
aquele em que as condições são tais que cada
membro da população tem uma chance igual
de ser escolhido.
A população ou universo é o conjunto de
todos os itens (produtos, indivíduos, firmas,
empregados, preços, medições).
A amostra é uma parte da população, tirada
aleatoriamente do universo de modo que o
represente. A amostra deve ser aleatória, onde
cada membro da população tem uma igual
chance de ser selecionado. Embora a amostra
seja representativa, ela não é uma réplica
exata, em miniatura, da população de onde ela
foi retirada. Isto é impossível de se conseguir e
como resultado, há erros de amostragem.
Estes erros devem ser minimizados ou então
previstos, através de distribuições de amostras.
Trabalhar com amostras em vez de estudar
a população total é uma técnica bem
estabelecida e usada, resultando na vantagem
de assumir um risco definido de aceitar uma
pequena percentagem de alguns dados com
não-conformidade em troca da grande redução
do custo e do tempo de inspeção.
Muita inspeção de aceitação é por
amostragem. Geralmente a inspeção de 100%
é impraticável e antieconômica. Também, a
qualidade do produto aceito pode realmente
ser melhor com amostragem estatística do que
a conseguida por inspeção de 100%. A
amostragem tem vantagens psicológicas e
menos cansaço dos inspetores. Muitos tipos de
inspeção de 100% não eliminam todos os
produtos fora de conformidade.
No caso de medições replicadas, quando se
faz a computação estatística de um número
muito elevado de dados (milhares), há uma alta
probabilidade de se cometer erros na entrada
de dados na calculadora ou no computador.
As leis da estatística se aplicam
estritamente a uma população formada apenas
de dados aleatórios. Para usar estas leis, devese assumir que o conjunto de dados que
formam uma amostra representa a população
infinita de resultados. Infelizmente, esta
hipótese não é garantidamente válida. Como
resultado, a estimativa estatística acerca do
valor dos erros aleatórios também está sujeita
a incerteza e por isso ela é expressa somente
em termos de probabilidade.
Em qualquer decisão que se toma,
baseando-se em poucos dados, corre-se o
risco de que ela seja errada. Por exemplo,
quando se sai de casa, carregando ou não um
guarda-chuva, coletam-se certos dados: olhase o céu, lê-se a previsão do tempo do jornal,
escuta-se a televisão. Depois de avaliar
rapidamente todos estes dados disponíveis,
incluindo a previsão do rádio de "30% de
probabilidade de haver chuva", toma-se uma
decisão. De qualquer modo, faz-se o
compromisso entre a inconveniência de
carregar um guarda-chuva e a possibilidade de
tomar uma chuva, sujando-se a roupa e
pegando um resfriado. Neste exemplo, tomouse uma decisão baseando-se na incerteza. A
incerteza não implica falta de conhecimento,
mas somente que o resultado exato não é
completamente previsível.
Inferência estatística é o processo de se
deduzir algo acerca de um universo baseandose em dados obtidos de uma amostra retirada
deste universo. Partindo-se dos parâmetros da
amostra, calculados e obtidos mais facilmente,
estimam-se as faixas onde devem estar estes
mesmos parâmetros da população. Quando o
tamanho da amostra aumenta, os valores dos
25
Estatística da Medição
parâmetros da amostra tendem para os valores
dos parâmetros da população. Assim, a
escolha do tamanho da amostra é um
compromisso entre a facilidade dos cálculos
(amostra muito pequena) e a validade dos
valores (amostra muito grande). O tamanho
conveniente da amostra depende de vários
fatores, como:
1. desvio permitido entre o parâmetro e o valor
verdadeiro,
2. o grau de variabilidade da população
fornecido pela experiência anterior,
3. o risco assumido ou o grau de probabilidade
determinado.
Na prática, amostra com n ≥ 20 é
considerada de bom tamanho e representativa
do universo. Alguns autores consideram ideal n
≥ 30. Na prática, por conveniência, trabalha-se
com amostras contendo cerca de 4 a 10
pontos, e aplicando a estatística t do Student,
que compensa os erros das amostras
pequenas.
A metodologia da inferência estatística
envolve
1. o problema: estimativa dos parâmetros da
população (média e variância) com os
dados disponíveis,
2. a solução: usa da informação da amostra
para obter as estimativas, mesmo tendo de
conviver com os erros da amostragem,
3. o resultado final: estimativa dos parâmetros
da população e os graus de confiança
associados.
3. Tratamento Gráfico
Os dados estatísticos podem ser
apresentados e arranjados em tabelas e
gráficos. O objetivo destes métodos é o de
condensar a informação de uma grande
quantidade de números, mostrando as
características mais importantes dos dados.
Os dados consistem de números, que
devem ser úteis e confiáveis. Para isso, é
importante definir a fonte dos dados, qual o
escopo do estudo, como eles são coletados,
qual a sua exatidão e precisão, como são
arredondados. Os dados podem mostrar
propriedades físicas variáveis.
3.1. Distribuição de Freqüência
4. Determinar o intervalo de cada classe.
5. Agrupar os dados em classes ou células.
6. Construir um gráfico com as classes e os
números de dados para cada classe.
7. Construir a distribuição de freqüência.
O número de grupos não pode nem ser
muito grande nem muito pequeno. Como regra,
pode-se tomar a raiz quadrada do número dos
dados, o que na prática, resulta em 5 a 15
grupos. Por exemplo, se há 100 dados,
escolhem-se 10 classes ( 100 = 10 ). Quando o
número não for exato, arredonda-se para o
inteiro mais próximo; por exemplo, para 200
dados, usam-se 14 classes ( 200 = 14 ,1 ). Os
limites inferior e superior devem ser escolhidos
de modo a não se ter superposições ou dados
de fora.
O intervalo da classe pode ser determinado
dividindo-se a diferença do maior dado pelo
menor dado pelo número de classes.
Matematicamente, tem-se:
onde
xh é o maior número da matriz
xl é o menor número da matriz
Exemplo
Para fixar idéias, será apresentado o
exemplo, onde se quer desenvolver uma
controle de qualidade para a fabricação de
lâmpadas de 100-watt. São tomados 50
registros de uma lote da produção e são feitos
testes de falha das lâmpadas. A confiabilidade
é medida em termos de horas para falhar. As
confiabilidades são as seguintes:
Tab. 2.1. Dados completos
1983
2235
2414
2329
2414
2697
2321
2214
2130
2438
2356
2299
2450
2454
2452
2026
2237
2248
2326
2320
2293
2027
2175
2346
2420
2355
2362
2465
2567
2174
2238
2543
2643
2234
2438
2146
2510
2270
2553
2350
2544
2544
2343
2652
2124
O processo para construir uma matriz e
uma distribuição de freqüência é simples e
direto. Os passos são os seguintes:
1. Coletar todos os dados disponíveis.
2. Arranjar os dados em uma matriz,
colocando-os em ordem crescente ou
decrescente.
3. Determinar o número de classes ou
células.
26
Estatística da Medição
Tab.2.2. Dados em ordem crescente
1983
2235
2329
2414
2510
2026
2237
2343
2417
2544
2027
2238
2346
2420
2543
2124
2248
2350
2438
2564
2130
2270
2353
2438
2567
2146
2293
2355
2438
2565
2174
2299
2356
2450
2643
2175
2320
2362
2454
2652
2214
2321
2387
2452
2680
2234
2326
2414
2465
2697
Os dados agora devem ser agrupados em
classes ou células.
O número adequado de classes é de
7 ( 50 = 7 , 1).
O intervalo da classe é calculado como:
Intervalo da classe =
2697 - 1983
= 102
7
Assim, deveria se ter:
maior dado = 2697 horas
menor dado = 1983 horas
faixa = 2697 - 1983 = 714 horas
número de classes = 7
intervalo da classe = 102
Pode-se fazer alguns ajustes finos:
1. o intervalo da classe pode ser igual a 100,
para facilitar os cálculos,
2. a primeira classe é de 1900 a 1999,
3. a segunda classe é de 2000 a 2099,
4. a terceira classe é de 2100 a 2199, ...
5. deve-se ter uma oitava classe, de 2600 a
2699 para acomodar os 4 últimos valores.
À primeira vista se pensa que o intervalo é
de 99 e não de 100, porém como a contagem
começa de 0, tem-se realmente 100 pontos
contados entre 1900 e 1999.
Constrói-se agora a tabela com os números
em cada intervalo de classe. O arranjo pode
ser horizontal ou vertical. No arranjo horizontal,
colocam-se as classes à esquerda e uma
marca de contagem (X, ou marcas múltiplas de
5) para cada ponto em cada classe à direita.
Tem-se
Tab. 2.3. Contagens
Marcas de contagem
Horas
1900-1999
X
2000-2099
XX
2100-2199
XXXXX
2200-2299
XXXXXXXXX
2300-2399
XXXXXXXXXXXX
2400-2499
XXXXXXXXXXX
2500-2599
XXXXXX
2600-2699
XXXX
As marcas de contagem são convertidas em
números, resultando na distribuição de
freqüência absoluta.
Tab. 2.4. Distribuição da freqüência absoluta
Horas
Número de falhas
1900-1999
1
2000-2099
2
2100-2199
5
2200-2299
9
2300-2399
12
2400-2499
11
2500-2599
6
2600-2699
4
Pode-se obter as seguintes informações
sobre a folha de distribuição de freqüência:
1. a menor taxa de queima da lâmpada é
de de 1900 horas e a maior, de 2700,
2. a maioria das lâmpadas queima entre
2200 e 2500 horas,
3. a maior concentração de falhas é entre
2300 e 2399 horas.
Fazendo-se um gráfico (abcissa = horas de
funcionamento até queimar da lâmpada;
ordenada = freqüência), percebe-se o centro
da distribuição (2350 horas) e como os valores
se espalham em torno deste ponto central.
Se ainda se quer a distribuição da
freqüência relativa, para prever o número de
lâmpadas que iriam falhar dentro de um
determinado intervalo, calcula-se a freqüência
relativa, dividindo-se cada freqüência absoluta
pelo número total de freqüências. O valor total
da freqüência relativa é 1,0. A fórmula da
freqüência relativa é:
Frequência relativa =
número de observaçõe s no intervalo
número total de observaçõe s
No exemplo da lâmpada, a freqüência
relativa de falhas para o intervalo de classe de
2100-2199 é de 0,01 ou 10% (5/50).
Tab. 2.5. A freqüência relativa em cada intervalo de
classe das confiabilidades das lâmpadas
Horas
Falhas
1900-1999
2000-2099
2100-2199
2200-2299
2300-2399
2400-2499
2500-2599
2600-2699
1
2
5
9
12
11
6
4
Freqüência
relativa
1/50 = 0,02
2/50 = 0,04
5/50 = 0,10
9/50 = 0,18
12/50 = 0,24
11/50 = 0,22
6/50 = 0,12
4/50 = 0,08
1,00
27
Estatística da Medição
3.2. Histograma
Histograma é o gráfico da distribuição de
freqüência que ilustra os resultados obtidos da
matriz e da folha dos resultados. Um gráfico
comunica a informação mais facilmente que a
análise numérica. Vendo o gráfico pode-se
contar diretamente os dados em cada intervalo
de classe e determinar o centro e o
espalhamento dos dados da distribuição.
O histograma é um gráfico de barras que
mostra os resultados da análise da distribuição
da freqüência, comprimindo os dados em
grupos lógicos.
O eixo horizontal dos x (abcissa) mostra os
intervalos das classes e o eixo vertical dos y
(ordenada) mostra a freqüência, absoluta ou
relativa. Cada intervalo de classe tem um limite
inferior e um limite superior. Geralmente o
menor limite da primeira classe é abaixo do
primeiro número e o limite maior da última
classe é acima do último número da matriz.
3.3. Significado metrológico
Quando se tem n medições, pode-se
quantizar estes n resultados em valores iguais
ou dentro de uma classe de largura ∆x.
Plotando a freqüência das ocorrências (número
de medições dentro das faixas) e os valores
das medições, obtém-se um histograma, ou
gráfico com barras. É interessante observar os
tamanhos destas barras: no centro da curva
estão as maiores freqüências correspondendo
a valores próximos da média das medições. Ou
seja, as medições se distribuem em torno do
valor médio das medições, com maior
quantidade de medições próximas da média e
com poucas medições longe das médias.
Aumentando o número de medições e
diminuindo a largura da faixa, o histograma se
aproxima de uma curva continua, chamada de
função de distribuição da densidade da
probabilidade das amplitudes da medição de x.
Quando os erros são puramente aleatórios,
os resultados das n medições sucessivas são
espalhados em torno do valor verdadeiro, com
a metade dos resultados acima e a outra
metade abaixo do valor verdadeiro . Este valor
verdadeiro é também chamado de valor médio.
Exemplo
Sejam os 50 dados replicados obtidos na
calibração de uma pipeta de 10 mL (Tab. 2.6)..
Tab. 2.6. Dados da pipeta de 10 mL
Dado
#
Volume
, ml
Dado
#
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
9,988
9,973
9,986
9,980
9,975
9,982
9,986
9,982
9,981
9,990
9,980
9,989
9,978
9,971
9,982
9,983
9,988
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
Volume,
ml
9,975
9,980
9,994
9,992
9,984
9,981
9,987
9,978
9,983
9,982
9,991
9,981
9,968
9,985
9,977
9,976
9,983
Dado
#
Volume,
ml
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
9,976
9,990
9,988
9,971
9,986
9,978
9,986
9,982
9,977
9,977
9,986
9,978
9,983
9,980
9,983
9,979
A partir destes dados foram encontrados:
Volume médio = 9,982 ml
Volume mediano = 9,982 ml
Afastamento = 0,025 ml
Desvio padrão = 0,0056 ml
A partir dos dados da Tab.2.6, pode-se
elaborar uma outra tabela (Tab. 2.7) mostrando
a distribuição da freqüência usando-se células
com largura de 0,003 mL e calculando-se a
percentagem de medições caindo em cada
célula. Nota-se que 26% dos dados residem na
célula contendo a média e a mediana de 9 982
mL e que mais da metade dos dados estão
dentro de +- 0,004 mL.
Tab. 2.7. Freqüência dos dados da Tab. 2.6
Faixa volume,
mL
9 969 a 9 971
9.972 a 9 974
9 975 a 9977
9 978 a 9980
9 981 a 9983
9 984 a 9 986
9 987 a 9 989
9 990 a 9 992
9 993 a 9 995
Número na
faixa
3
1
7
9
13
7
5
4
1
% na
faixa
6
2
14
18
26
14
10
8
2
Os dados da distribuição da freqüência da
Tab. 7 podem ser plotados em um gráfico de
barras ou histograma. Pode-se perceber que
quando o número de dados medidos aumenta,
o histograma se aproxima da curva contínua da
distribuição normal, gerada com um número
infinito de dados.
28
Estatística da Medição
4. Médias
Os dados podem ser reduzidos a um único
número, para fins de comparação. A média ou
valor médio é o mais representativo de um
conjunto de dados ou medições. A média é o
valor esperado de uma quantidade medida do
conjunto das medições tomadas. Valor
esperado não é o valor mais provável. A média
tende a ficar no centro dos dados quando eles
são arranjados de acordo com as magnitudes e
por isso a média é também chamada de
tendência central das medidas. Quanto maior o
número de medições feitas, melhor será o
resultado. O valor médio é a expectativa
matemática do conjunto dos dados.
Nas distribuições formadas pelos dados,
quase sempre há uma tendência central destes
dados. Esta tendência central, em torno da
qual os dados se agrupam pode ser medida
por algum tipo de média. As médias típicas
são: média aritmética, ponderada, eficaz,
geométrica, harmônica, mediana e moda.
Fig. 2.2. Histograma da Tab. 2.7
4.1. Média Aritmética
A média mais usada é a aritmética, que é
calculada matematicamente como a soma de
todas as medidas de um conjunto dividida pelo
número total de medidas. A média aritmética
de um conjunto de medidas é dada por:
xm = x =
x 1 + x 2 +...+ x n
n
onde
xm = x = valor médio ou a média
x1, x2, ... xn = valor de cada medição
n = número de leituras.
Também pode se escrever, de modo
abreviado:
n
xm =
∑ xi
i =1
n
Diz-se que a média é a somatória dos
valores de x, começando de i igual a 1 e
terminando em n dividido por n. Σ é a letra
grega Sigma.
É comum denotar a média como x (diz-se x
barra), porém este símbolo é difícil de se obter
em datilografia e por isso também se usa xm.
Quando se tem uma população com o
número muito grande de dados (n tende para
infinito), o símbolo da média é expresso como:
n
µ=
∑ xi
i =1
n
com n → ∞
Através do conceito dos mínimos quadrados
do erro pode-se demonstrar matematicamente
que a média aritmética é a melhor estimativa
do valor verdadeiro de um dado conjunto de
medições.
O instrumentista deve sempre fazer de duas
a cinco replicações de uma medição. Os
resultados individuais de um conjunto de
medições são raramente os mesmos e usa-se
a média ou o melhor valor para o conjunto. O
valor médio central é sempre mais confiável do
que qualquer resultado individual. A variação
nos dados deve fornecer uma medida da
incerteza associada com o resultado central. A
média serve como o valor central para um
conjunto de medições replicadas.
A média de dados aleatórios não é mais
aleatória mas é determinística. Por exemplo, a
média das somas dos pontos obtidos pelo
lançamento de dois dados é um número
determinado igual a 7.
O valor médio tem as seguintes
propriedades matemáticas práticas e úteis à
metrologia:
1. a média é a melhor estimativa para um
conjunto de medições disponíveis.
2. a média tem a mesma dimensão das
medições e fica entre os valores mínimo e
máximo das medições.
3. quando se multiplica uma variável aleatória
por uma constante, sua média será
multiplicada pela mesma constante.
4. a média da soma de duas variáveis
aleatórias é a soma de suas médias.
5. se uma constante é somada à variável
aleatória, a mesma constante é somada ao
seu valor médio.
29
Estatística da Medição
6. a média do produto de duas variáveis
aleatórias independentes é igual ao
produto de seus valores médios.
7. mesmo que a distribuição dos valores seja
simétrica, a distribuição da área não é
simétrica, pois, se 5 está no meio de 0 e
10, mas 52 não está no meio de 02 e 102.
Exemplo
As medições do valor do resistor dão:
52,3 Ω
51,7 Ω
53,4 Ω
53,1 Ω
80,0 Ω
O valor médio destas medições, desprezando o
valor de 80,0 Ω que é grosseiro, vale 52,6 Ω.
Rm =
52,3 + 517
, + 53,4 + 53,1
= 52,6 Ω
4
4.2. Raiz da Soma dos Quadrados
Quando se tem dados com sinais positivos
e negativos e as suas influências se somam,
não se pode tirar a média aritmética pois a
soma algébrica dos dados cancelam seus
valores. Por isso, inventou-se a média Raiz
quadrada da Soma dos Quadrados (RSQ), que
é dada pela expressão:
X RSQ = ( x 12 + x 22 +...+ x n2 )
Em metrologia, esta relação matemática
(algoritmo) é a mais usada para determinar o
erro final resultante de vários erros
componentes aleatórios e independentes entre
si.
Em estatística, o desvio padrão (σ) é
calculado através de uma relação que também
envolve a raiz quadrada da soma dos
quadrados dos desvios de cada medição (di).
Tem-se
σ=
( d 12 + d 22 +...+ d n2 )
n
5. Desvios
Como ocorre com as médias, há também
vários tipos de desvios, embora o mais usado
seja o desvio padrão.
5.1. Dispersão ou Variabilidade
A medida do ponto central isolado não dá
uma descrição adequada dos dados
experimentais. Deve-se considerar também a
variabilidade ou espalhamento dos dados. Por
exemplo, se alguém tem os pés na geladeira e
a cabeça no forno, pode-se dizer que a média
da temperatura é boa, mas a sensação será
horrível, por causa da grande faixa de
espalhamento entre as duas temperaturas.
Por isso foram desenvolvidos outros
parâmetros importantes de dados
experimentais associados ao grau de
espalhamento do conjunto de dados, como
faixa, desvio médio, variância, desvio padrão,
coeficiente de variação, desvio padrão
ajustado.
5.2. Faixa (Range)
A faixa ou espalhamento de um conjunto de
dados é a diferença entre o maior e o menor
valor do conjunto. A faixa é o modo mais
simples para representar a dispersão dos
dados. As desvantagens associadas com a
faixa como medida da dispersão são:
1. ela se baseia somente na dispersão dos
valores extremos,
2. ela deixa de fornecer informação acerca
do ajuntamento ou dispersão dos valores
observados dentro dos dois valores extremos.
Mesmo assim, ela é empregada para se ter
uma idéia aproximada da extensão dos valores
espalhados dos dados disponíveis. Ela é
fundamental nas cartas para o controle
estatístico dos dados.
Por exemplo, para um conjunto de
medições de um comprimento, em mm,
194, 195, 196, 198, 201, 203
o espalhamento é igual a 203 - 194 = 9 mm.
O desvio padrão para conjuntos com
pequeno número de dados (N) pode ser
rapidamente estimado multiplicando-se a faixa
por um fator k (Tab. 2.8).
No conjunto anterior, o desvio padrão
estimado pelo fator k da tabela (N = 6) é igual a
9 x 0,38 = 3,5. O desvio padrão calculo de
modo convencional é igual a 3,6.
Tab. 2.8. Fatores para estimar desvio padrão
N
2
3
4
5
6
7
8
9
10
k
0,89
0,59
0,49
0,43
0,39
0,37
0,35
0,34
0,32
30
Estatística da Medição
5.3. Desvio do Valor Médio
O desvio é a diferença entre cada medida e
a média aritmética. O desvio do valor médio
indica o afastamento de cada medição do valor
médio. O valor do desvio pode ser positivo ou
negativo. Os desvios das medidas x1, x2, ... xn
da média aritmética xm são:
d1 = x1 - xm
d2 = x2 - xm
...
dn = xn - xm
Teoricamente, a soma algébrica de todos os
desvios de um conjunto de medidas em relação
ao seu valor médio é zero. Na prática, nem
sempre ele é zero, por causa dos
arredondamentos de cada desvio.
Para as medições da resistência acima,
Ri
52,3
51,7
53,4
53,1
Rm
52,6
52,6
52,6
52,6
di
-0,3
-0,9
+0,8
+0,5
Onde
Ri é o valor de cada resistência
Rm é o valor médio das resistências
di é o desvio de cada resistência
A soma dos desvios não deu zero pois há
um erro de arredondamento, pois a média é de
52,63 aproximado para 52.6.
5.4. Desvio Médio Absoluto
O grau de espalhamento em torno do valor
médio é a variação ou dispersão dos dados.
Uma medida esta variação é o desvio médio. O
desvio médio pode fornecer a precisão da
medição. Se há um grande desvio médio, é
uma indicação que os dados tomados variam
largamente e a medição não é muito precisa.
O desvio médio é a soma dos valores
absolutos dos desvios individuais, dividido pelo
número de medições. Se fosse tomada a soma
algébrica, respeitando os sinais, e não havendo
erros de arredondamento, a soma seria zero.
O desvio médio absoluto é dado por:
D=
[x1 ] + [x 2 ] + ... + [x n ]
n
Exemplo
De novo, a resistência acima
Rm
52,6
52,6
52,6
52,6
Ri
52,3
51,7
53,4
53,1
di
-0,3
-0,9
+0,8
+0,5
O desvio médio absoluto é calculado
tomando-se os di em valor absoluto (positivo)
D=
0,3 + 0,9 + 0,8 + 0,5
= 0,67 ≈ 0,7 Ω
4
Para distribuições simétricas de freqüência,
há uma relação empírica entre o desvio médio
e o desvio padrão como:
desvio médio =
4
(desvio padrão)
5
5.5. Desvio Padrão da População
O desvio médio de um conjunto de
medições é somente um outro método para
determinar a dispersão do conjunto de leituras.
O desvio médio não é matematicamente
conveniente para manipular as propriedades
estatísticas pois sua soma geralmente se anula
e por isso o desvio padrão é mais adequado e
útil para expressar a dispersão dos dados.
O desvio padrão de uma população, σ, é
calculado raiz quadrada da média dos
quadrados dos desvios individuais. Tem-se
σ=
∑ ( x i − µ) 2
n
onde
(xi - µ) é o desvio da média da ia medição.
n é o número de dados da população total.
O desvio padrão pode expressar a precisão
do instrumento que fornece o conjunto de
medições. Quando o desvio padrão (σ) é
pequeno, a curva da probabilidade das
amplitudes é estreita e o valor de pico é grande
e as medições são feitas por um instrumento
muito preciso. Quando o desvio padrão (σ) é
grande, a curva da probabilidade das
amplitudes é larga e o valor de pico é pequeno
e as medições são feitas por um instrumento
pouco preciso. Em qualquer caso, a área sob a
curva é igual a 1, pois a soma das
probabilidades é igual a 1.
31
Estatística da Medição
5.6. Desvio Padrão da Amostra
O desvio padrão da amostra com pequeno
número de dados (n ≤ 20 ou para alguns, n <
30) ou desvio padrão ajustado é dado por:
n
s=
∑ (x
i
− x)2
i =1
(n − 1)
Usa-se o denominador (n - 1) por que agora
se tem (n - 1) variáveis aleatórias e a na é
determinada.
O desvio padrão usado para medir a
dispersão dos dados sobre de uma lacuna que
é sua polarização quando o número de dados é
pequeno. Por exemplo, quando se tem
somente uma medida, o valor do desvio se
reduz a zero. Isto implica que a medição não
tem dispersão e como conseqüência, não tem
nenhum erro. Obviamente este resultado é
altamente polarizado, quando se toma somente
uma medição nos cálculos. Quando se tomam
duas ou mais medições, a polarização no
paramento diminui progressivamente até se
tornar desprezível para n grande. Assim, o
valor do desvio padrão é ajustado para dar
uma estimativa não polarizada da precisão. Isto
é conseguido dividindo-se a soma dos
quadrados dos desvios por (n - 1) em vez de n.
Diz-se que (n-1) é o número de grau de
liberdade e n é o número total de observações.
O número de graus de liberdade se refere ao
número de dados independentes gerados de
um dado conjunto e usados na computação.
Um conjunto com duas medições tem
somente uma entrada útil com relação a
estimativa da dispersão em torno da média da
população, por que o conjunto deve fornecer
informação acerca da dispersão e acerca da
média. Assim, uma amostra de dois dados
fornece só uma observação independente com
relação à dispersão. Para uma amostra de 10
dados, pode-se ter 10 desvios. Porém,
somente 9 são independentes, por que o último
pode ser deduzido do fato que a soma dos
desvios é igual a zero. Assim, um conjunto de n
dados fornece
(n - 1) observações independentes com relação
ao desvio padrão da população. De um modo
mais geral ainda, tem-se (n - m) graus de
liberdade em um conjunto com n dados e m
constantes.
Na população, quando m é desconhecido,
duas quantidades podem ser calculadas de um
conjunto cm n dados replicados, x e s. Um
grau de liberdade é usado para calcular x ,
porque, retendo os sinais dos desvios, a soma
dos desvios individuais deve ser zero. Assim,
computados (n - 1) desvios, o último desvio (no)
fica conhecido. Como conseqüência, somente
(n - 1) desvios fornecem medida independente
da precisão do conjunto de medições. Em
pequenas amostras (n < 20), quando se usa n
em vez de (n - 1) para calcular s, obtém-se um
valor menor do que o verdadeiro.
O desvio padrão das medições da
resistência é de 0,8 Ω. Como ainda será visto,
o valor da resistência deve estar entre o valor
médio e uma tolerância de n desvios padrão. O
n está relacionado com o nível de
probabilidade associado. Assim, o valor da
resistência é de 51,6 ± 0,8 (1s) Ω, com 68% de
probabilidade ou 51,6 ± 1,6 (2s) Ω com 95% de
probabilidade.
5.7. Fórmulas Simplificadas
Ás vezes, é mais cômodo e rápido calcular
os desvios padrão da população e da amostra
com fórmulas que envolvem somente a
computação de xi2 ,
xi2 e
xi . Estas
∑
∑
fórmulas são:
2
σ =
2
s =
∑ ( x i2 ) − ( ∑ x i )
2
/n
n
∑ ( x i2 ) − ( ∑ x i )
2
/n
n−1
5.8. Desvios da população e da
amostra
Como o desvio padrão da população
envolve n e o desvio padrão da amostra
envolve (n - 1), obtém-se facilmente a relação
entre os dois desvios, como
s=
n
×σ
n−1
onde o fator
n
é conhecido como fator
n−1
de correção de Bessel.
Quando n aumenta, o fator de Bessel se
aproxima de 1, e o s se iguala a σ. Na prática,
para n ≥ 20, pode-se considerar s igual a σ. O
desvio padrão da amostra é também chamado
de desvio padrão ajustado.
32
Estatística da Medição
5.9. Desvio padrão de operações
matemáticas
Para uma soma ou diferença, o desvio
padrão absoluto da operação é a raiz quadrada
da soma dos quadrados dos desvios padrões
absolutos individuais dos números envolvidos
na soma ou subtração. Ou seja, na
computação de
y = a( ± s a ) + b( ± s b ) − c( ± s c )
o desvio padrão do resultado é dado por:
sy =
sa2
+
s b2
+
sc2
Para a multiplicação e divisão, o desvio
padrão relativa da operação é a raiz quadrada
da soma dos quadrados dos desvios padrão
relativos dos números envolvidos na
multiplicação e divisão. Ou seja, na
computação de
y=
a×b
c
o desvio padrão relativo a y vale
sy
2
2
⎛s ⎞
⎛s ⎞
⎛s ⎞
= ⎜ a ⎟ +⎜ b ⎟ +⎜ c ⎟
⎝ a⎠
⎝ b⎠
⎝ c⎠
y
2
5.10.Coeficiente de variação
Define-se como desvio padrão relativo a
divisão do desvio padrão absoluto pela média
do conjunto de dados. O desvio padrão relativo
é geralmente expresso em ppm (parte por mil),
multiplicando-se esta relação por 1000 ppm ou
em percentagem, multiplicando-se a relação
por 100%. O coeficiente de variação (CV) é
definido como o desvio padrão relativo
multiplicado por 100%:
Como o valor médio está no denominador,
não de pode usar o coeficiente de variação
quando o valor médio se aproxima de zero.
CV (%) =
desvio padrão
× 100%
valor médio
medir a dispersão relativa de um conjunto de
medições. Quando se quer comparar a
variação de dois conjuntos separados de dados
onde as unidades de medição não são as
mesmas ou quando as unidade são as
mesmas mas as variações são muito grandes.
Por exemplo, se uma amostra contem cerca
de 50 mg de cobre e o desvio padrão é de 2
mg, o coeficiente de variação (CV) para esta
amostra é de 2 mg/50 mg x 100%, ou seja, 4%.
Para uma amostra contendo 10 mg, o CV é de
20%.
5.11. Desvio Padrão Das Médias
Os números calculados da distribuição da
percentagem se referem ao erro provável de
uma única medição. Quando se fazem n séries
de medições replicadas, cada uma com N
dados, e acham-se as médias de cada
conjunto, estas médias também se espalham
em torno de um valor médio e este
espalhamento pode também ser expresso por
um desvio padrão, chamado de desvio padrão
das médias.
O desvio padrão da média de cada conjunto
é chamado de erro padrão da média e é
inversamente proporcional à raiz quadrada do
número de séries replicadas de medições com
N dados (N ≥ 20).
σ=
σ
n
De um modo análogo, tem-se para uma n
amostras com N dados (N ≤ 20),
s=
s
n
O desvio padrão das médias é uma melhor
estimativa da incerteza interna e é chamado
também de erro padrão interno.
Pode-se notar que a distribuição normal das
medições de uma amostra tem menor precisão
que a correspondente distribuição normal da
amostra das médias da população. A
distribuição normal das médias tem um formato
mais estreito e um pico maior que a distribuição
normal de uma amostra.
σ
× 100% , para toda a população
µ
s
CV = × 100% , para uma amostra
x
CV =
O coeficiente de variação é mais
conveniente que o desvio padrão absoluto para
33
Estatística da Medição
Fig. 2.3. Desvio padrão das médias
Deve-se ter o cuidado para não confundir os
números envolvidos. É possível ter um
conjunto com N dados (base de cálculo do
desvio padrão do universo),
N
∑ ( x i − µ) 2
i =1
σ=
N
dos quais se tira uma amostra com k dados
(base de cálculo do desvio padrão da amostra)
k
s=
∑ (x i − x) 2
i =1
(k − 1)
e se tira a média de um n conjuntos de dados
(base de cálculo para o desvio padrão das n
médias).
s=
s
Tab. 2.9. Dados da análise química
xi
ppm Fe
( xi − x ) 2
x −x
i
x1
19,4
0,38
0,1444
x2
19,5
0,28
0,0784
x3
19,6
0,18
0,0324
x4
19,8
0,02
0,0004
x5
20,1
0,32
0,1024
x6
20,3
0,52
0,2704
Efetuando-se os cálculos, chega-se a
xi = 118,7
∑
∑ ( x i − x) 2 = 0,6284
Média
Desvio padrão
A variância (V) é simplesmente o quadrado
do desvio padrão (s2). A variância também
mostra a dispersão das medições aleatórias
em torno do valor médio.
A unidade da variância é o quadrado da
unidade das quantidades medidas.
A variância (s2) é definida para população
muito grande (essencialmente infinita) de
medições replicadas de x.
Tem-se
n
∑ (x i − x) 2
i=1
n
para grandes populações (n > 20) e onde n é o
grau de liberdade da população.
Tem-se, para pequenas populações (n < 20)
n
s2 =
Exemplo
Sejam os dados obtidos de uma análise:
x = 118,7/6 = 19,78 ppm Fe
n
5.12. Variância
σ2 =
Enquanto a unidade do desvio padrão é a
mesma dos dados, a variância tem a unidade
dos dados ao quadrado. Mesmo com esta
desvantagem, a variância possui as seguintes
vantagens:
1. ela é aditiva,
2. ela não tem os problemas associados com
os sinais algébricos dos erros,
3. ela emprega todos os valores dos dados e é
sensível a qualquer variação no valor de
qualquer dado,
4. ela é independente do ponto central ou do
valor médio, por que ela usa os desvios em
relação ao valor médio,
5. seu cálculo é relativamente mais simples.
∑ (x i − x) 2
i =1
(n − 1)
s = xi
Variância
s2 = 0,352 = 0,13 (ppm Fe)2
Desvio padrão relativo
xi =
0,354
× 1000 = 17,9 ≈ 18 ppt
19,78
Coeficiente de variação
xi =
0,354
× 100% = 179
, ≈ 18%
,
19,78
Erro absoluto
Assumindo que o valor verdadeiro da amostra
seja de 10,00 ppm Fe:
19,78 - 20,00 = 0,011 ppm Fe
Erro relativo
19,78 − 20,00
× 100% = -1,1%
20,00
34
Estatística da Medição
6. Distribuições dos dados
6.1. Introdução
A determinação de probabilidades
associadas com eventos complexos pode ser
simplificada com a construção de modelos
matemáticos que descrevam a situação
associada com um evento particular específico.
Estes modelos são a distribuição da
probabilidade ou função probabilidade. A
distribuição da probabilidade pode ser
calculada a partir de dados de amostra retirada
da população e também teoricamente.
Por causa de suas características, a
distribuição da probabilidade está relacionada
com as distribuições de freqüência. Porém, na
distribuição de freqüência, as freqüências são
números observados de eventos ocorridos e na
distribuição da probabilidade, a freqüência é
derivada da probabilidade de eventos que
podem ocorrer.
6.2. Parâmetros da Distribuição
A distribuição das freqüências mostra os
dados em formas e formatos comuns. Os
números tem uma tendência de se agrupar e
mostrar padrões semelhantes. Estes padrões
podem ser identificados, medidos e analisados.
Na análise dos dados de uma distribuição de
freqüências há quatro parâmetros importantes:
tendência central, dispersão, assimetria e
kurtosis
Tendência central
A tendência central é a característica que
localiza o meio da distribuição. A tendência
central natural é a média dos pontos. As curvas
podem ter diferentes simetrias e dispersões,
mas a mesma tendência central. Também,
pode-se ter curvas com a mesma simetria e
mesma dispersão, mas com diferente
tendência central.
Dispersão
Dispersão é a característica que indica o
grau de espalhamento dos dados. A dispersão
é também chamada de variação.
Assimetria (Skewness)
Skewness é a característica que indica o
grau de distorção em uma curva simétrica ou o
grau de assimetria. Uma curva simétrica possui
os lados direito e esquerdo da lei de centro
iguais. Os dois lados de uma curva simétrica
são imagens espelhadas de cada lado. Uma
curva se distorce para a direita quando a
maioria dos valores estão agrupados no lado
direito da distribuição.
Curtose (Kurtosis)
A curtose (kurtosis) é a característica que
descreve o pico em uma distribuição. É uma
medida relativa para comparar o pico de duas
distribuições. Uma maior curtose significa um
pico maior de freqüência relativa, não maior
quantidade de dados.
Há três classes de curtose: platicúrtica
(curva plana e esparramada), leptocúrtica
(curva com pico estreito e alto) e mesocúrtica
(intermediária entre as duas outras).
6.3. Tipos de distribuições
Há três distribuições de probabilidade
usadas:
1. binomial
2. retangular
3. normal.
Distribuição Binomial
A distribuição binomial se refere a variáveis
discretas e se aplica, principalmente, à
contagem de eventos, onde as duas saídas
possíveis podem ser sucesso ou falha, peça
normal ou defeituosa.
Sendo
n o número de tentativas,
p a probabilidade de sucesso em cada
tentativa,
q a probabilidade de falha em cada
tentativa,
P(x) a probabilidade de se obter x sucessos,
P( x ) = C nx ( p x )(q n− x )
onde
Cnx =
n!
x! (n − x )!
Cnx é a combinação de n elementos tomados x
vezes
n! é o fatorial de n, n! = n.(n-1)(n-2)...3.2.1
Para evitar os enfadonhos cálculos,
principalmente quando n for grande, pode-se
usar tabelas disponíveis na literatura técnica,
onde se determina P(x) a partir de n, x.
Distribuição Retangular
Na distribuição retangular os valores
possíveis são igualmente prováveis. Uma
variável aleatória que assume cada um dos n
valores, x1, x2, ...,xn com igual probabilidade de
1/n.
Em metrologia, os erros sistemáticos
possuem distribuição retangular de
probabilidade. Para qualquer valor da medição,
ele é constante.
35
Estatística da Medição
1/A
A
Fig. 2.4. Distribuição retangular
6.4. Distribuição normal ou de Gauss
Conceito
A distribuição normal é uma distribuição
contínua de probabilidade, fundamental para a
inferência estatística e análise de dados. Sua
importância vem dos seguintes fatos:
1. muitos fenômenos físicos e muitos
conjuntos de dados seguem uma
distribuição normal. Por exemplo, as
distribuições de freqüência de alturas,
pesos, leituras de instrumentos, desvios
em torno de valores estabelecidos
seguem a distribuição normal.
2. pode-se mostrar que várias estatísticas
de amostras (como a média) seguem a
distribuição normal, mesmo que a
população de onde foram tiradas as
amostras não seja normal.
3. mesmo a distribuição binomial tende
para a distribuição normal, quando o
número de dados aumenta muito. E os
cálculos relacionados com a distribuição
binomial são muito mais complexos que
os empregados pela distribuição normal.
4. a distribuição normal possui
propriedades matemáticas precisas e
idênticas para todas as distribuições
normais.
Fig. 2.5. Distribuição normal ou de Gauss
Relação matemática
Quando se tem uma variável continua, a
função distribuição normal ou função de Gauss
tem a seguinte expressão matemática,
envolvendo os números naturais 2, π e
exponencial de e:
⎡ 1 ⎛ x − µ ⎞2 ⎤
1
F( x ) =
exp⎢− ⎜
⎟ ⎥
σ 2π
⎢⎣ 2 ⎝ σ ⎠ ⎥⎦
A expressão matemática para uma amostra
pequena, tem-se:
F( x ) =
⎡ 1 ⎛ x − x⎞ 2 ⎤
exp⎢ − ⎜
⎟ ⎥
s 2π
⎢⎣ 2 ⎝ s ⎠ ⎥⎦
1
Quando a variável for discreta, pode-se
construir a curva a partir dos dados. No eixo x,
colocam-se os valores dos dados divididos em
classes e no eixo y, o número de vezes que
aparecem os dados. Quando o número de
dados é muito grande (tendendo para infinito) e
sujeito somente às variações aleatórias, os
dados produzidos caem dentro da curva de
distribuição normal. Os erros aleatórios de uma
medição formam uma distribuição normal por
que eles resultam da superposição mútua de
uma grande quantidade de pequenos erros
independentes que não podem ser
considerados separadamente.
Características
O formato de uma curva de distribuição de
probabilidade normal é simétrico e como um
sino. A curva de distribuição deve ter as
seguintes características:
1. simétrica em relação à média, indicando
que os erros negativos de determinado
valor são igualmente freqüentes quanto os
positivos,.
2. formato mostrando que ocorreram muitos
desvios pequenos e poucos desvios
grandes,
3. valor de pico máximo igual ao valor
verdadeiro (exata) ou distante (não exata).
4. pontos de inflexão da curva são x = x ± σ
5. por causa da simetria da curva, a mediana
é igual à média e como a média ocorre no
pico da densidade de probabilidade, ele
também representa a moda. Tem-se média
= moda = mediana.
6. o eixo x é uma assíntota da curva.
7. quando normalizada, a área total sob a
curva é igual a 1 englobando 100% dos
eventos.
8. para o mesmo valor médio, a distribuição
tem um pico estreito para pequenos
valores do desvio padrão e é larga para
grandes valores do desvio padrão. Como a
área é sempre igual a 1, quando o formato
for mais estreito, o pico é maior.
9. a equação do valor máximo da densidade
de probabilidade vale:
36
Estatística da Medição
{p( x)} max
1
0,399
=
=
σ
2πσ
10. a probabilidade que o valor médio x
fique entre um intervalo de x1 e x2 é a área
debaixo da curva distribuição neste intervalo.
Aplicações
Pode-se determinar a probabilidade de as
medições replicadas caírem dentro de
determinada faixa em torno da média. Esta
probabilidade serve como medida da
confiabilidade da medição em relação aos
erros aleatórios. Os limites de confiança
servem para definir a faixa do erro aleatório da
medição.
Para estabelecer se os erros aleatórios ou
desvios se aproximam da distribuição de
Gauss, são feitos testes de homogeneidade.
Estes testes fornecem meios para
1. detectar se as diferenças entre os
conjuntos de medições são devidas a
uma razão real (sistemática) ou
aleatória,
2. detectar uma chance em um
característica de distribuição,
3. avaliar as diferentes medições,
distinguindo as mais e menos confiáveis,
4. distinguir os erros dependentes e
correlatos.
Área Sob a Curva de Erro Normal
A área total sob a curva de distribuição
normal é 1, entre os limites -∞ e +∞ pois todos
os resultados caem dentro dela. Independente
de sua largura, tem-se 68,3% da área sob a
curva do erro normal fica dentro de um desvio
padrão (±σ) a partir da média. Ou seja, 68,3%
dos dados que formam a população ficam
dentro destes limites. Do mesmo modo, 95,5%
de todos os dados caem dentro dos limites de
±2σ da média e 99,7% caem dentro de ±3σ.
Tab. 2.10 Limites para grandes populações
Limites
±0,67σ
±1,00σ
±1,29σ
±1,64σ
±1,96σ
±2,00σ
±2,58σ
±3,00σ
Percentagem
Probabilidade
50,0
68,3
80,0
90,0
95,0
95,4
99,0
99,7
0,500
0,683
0,800
0,900
0,950
0,954
0,990
0,997
ferramenta útil de previsão. Por exemplo, podese dizer há uma probabilidade de 68,3% que a
incerteza de qualquer medição isolada não seja
maior que ±1σ. Do mesmo modo, a chance é
de 95,5% que o erro seja menor que ±2σ.
Fig.2. 6. Limites da distribuição
Distribuição Normal, Precisão e Exatidão
A análise do formato da curva de
distribuição normal das medições pode mostrar
a distinção entre exatidão e precisão. As
medições de um instrumento muito preciso,
quando pilotadas, dão uma curva de
distribuição estreita e com o pico grande. As
medições de um instrumento pouco preciso
dão uma curva de distribuição larga e com o
pico pequeno. Quando a largura aumenta, o
valor do pico deve diminuir, porque a área sob
a curva é igual a 1.
As medições muito exatas de um
instrumento, quando pilotadas, dão uma curva
de distribuição com o valor médio próximo do
melhor valor estimado. Ou seja, a soma dos
quadrados dos desvios dos dados de seus
valores estimados é mínimo (princípio dos
mínimos quadrados). Quando as medições são
pouco exatas, a sua curva de distribuição tem o
valor médio distante do melhor valor estimado.
Ou seja, a soma dos quadrados dos desvios
dos dados de seus valores estimados é maior
que o mínimo.
Deste modo é possível ter quatro
combinações de boa, ruim, precisão e
exatidão.
As medições são muito exatas e o
instrumento é muito preciso quando a curva é
estreita, o pico é elevado e o valor médio é
igual (ou próximo) do valor verdadeiro.
Por causa destas relações de área, o desvio
padrão de uma população de dados é um
37
Estatística da Medição
Não preciso e não exato
Não preciso e exato
Fig.2. 7. – Exatidão
As medições são pouco exatas e o
instrumento é muito preciso quando a curva é
estreita, o pico é elevado e o valor médio é
distante do valor verdadeiro.
As medições são muito exatas e o
instrumento é pouco preciso quando a curva é
larga, o pico é baixo e o valor médio é igual (ou
próximo) do valor verdadeiro.
As medições são pouco exatas e o
instrumento é pouco preciso quando a curva é
larga, o pico é baixo e o valor médio é distante
do valor verdadeiro.
Preciso e não exato
Preciso e exato
Fig.2. 8. Precisão
Distribuição Normal e Erro Provável
Se um conjunto aleatório de erros em torno
de um valor médio é examinado, acha-se que
sua freqüência de ocorrência relativa ao seu
tamanho é descrita por uma curva conhecida
como a curva de Gauss ou a curva do sino.
Gauss foi o primeiro a descobrir a relação
expressa por esta curva. Ela mostra que a
ocorrência de pequenas desvios aleatórios da
média são muito mais prováveis que grandes
desvios. Ela também mostra que estes grandes
desvios são muito improváveis.
O desvio padrão de uma distribuição normal
1. mede o espalhamento da medição em
uma dada entrada
2. tem a mesma unidade da medição
3. é a raiz quadrada da média da soma dos
quadrados dos desvios de todas as
medições possíveis da média aritmética
verdadeira.
A curva também indica que os erros
aleatórios são igualmente prováveis serem
positivos e negativos. Quando se usa o desvio
padrão para medir o erro, pode-se usar a curva
para determinar qual a probabilidade de um
erro ser maior ou menor que um certo valor σ
para cada observação.
Pode-se calcular o erro provável quando se
tem apenas uma medição. Como o erro
aleatório pode ser positivo ou negativo, um erro
maior que 0,675σ é provável em 50% das
observações. Assim, o erro provável de uma
medição é
e = ± 0,675 σ
Assim, uma medição possui três partes:
1. um valor indicado
2. uma margem de incerteza ou erro ou
tolerância, que é o intervalo de confiança,
expresso em ±nσ, onde n é uma constante
e σ é o desvio padrão
3. uma probabilidade, que é a indicação da
confiança que se tem quanto ao erro real
estar dentro da margem de incerteza
escolhida; p. ex., 99,73% quando se
escolhe a margem de ±3σ.
Distribuição Normal Padrão
Existe uma infinidade de curvas e funções
distribuição normal, diferentes de acordo com o
valor da média central (µ) e do desvio padrão
(σ). O desvio padrão para a população que
produz a curva mais larga e com menor pico
(B) é o dobro do desvio padrão da curva mais
estreita com o pico maior (A). O eixo dos x das
curvas é em afastamento da média em
unidades de medição (x - µ).
Plotando as mesmas curvas, porém usando
como abscissa o desvio da média em múltiplos
de desvio padrão [(x-µ)/σ] obtém-se uma curva
idêntica para os dois conjuntos de dados.
Qualquer distribuição normal pode ser
transformada em uma forma padrão. Para fazer
isso, a variável x é expressa como o desvio de
sua média µ e dividida por seu desvio padrão
σ, ou seja, muda-se a variável x para outra
variável z dada por:
z=
x−µ
σ
Para uma amostra da população, tem-se
z≈
x−x
s
A variável z é o desvio da média dado em
unidades de desvio padrão. Assim, quando
38
Estatística da Medição
(x - µ) = σ, z é igual a um desvio padrão;
Quando (x - µ) = 2σ, z é igual a dois desvios
padrão.
Quando se tem uma particular destruição
normal de uma variável aleatória x, com uma
dada média (µ) e desvio padrão (σ), achar a
probabilidade de x cair dentro de um
determinado intervalo é equivalente a encontrar
a área debaixo da curva limitada pelo intervalo.
Porém, pode-se achar diretamente esta área
das tabelas de distribuição normal padrão.
A curva da distribuição normal padrão
apresenta as seguintes propriedades:
1. A média ocorre no ponto central de
máxima freqüência e vale zero (µ = 0).
2. O desvio padrão é igual a 1 (σ = 1).
2. Há uma distribuição simétrica de desvios
positivos e negativos em torno da média.
3. Há uma diminuição exponencial na
freqüência quando o valor dos desvios
aumenta, de modo que pequenas incertezas
são observadas muito mais freqüentemente
que as incertezas grandes.
A estatística z é normalizada e sua
expressão matemática vale
F( z ) =
2
2π
e
⎛ z2
⎜−
⎜ 2
⎝
⎞
⎟
⎟
⎠
Quando se tem n > 20, a média das
medições é µ e o desvio padrão é σ. A medição
pode ser reportada como:
x = µ ± fσ
(P%)
onde
x é o valor da medição
x é o valor médio das n medições
f é o fator de cobertura associado a P%
σ é o desvio padrão da população
P% é a probabilidade
Pode-se dizer, com uma probabilidade de
acerto de P% que a medição x se encontra
entre os limites:
µ- fσ < x < µ + fσ
Por exemplo, para uma probabilidade de
95%, o fator de cobertura é 2. Isto significa que
quando se tem uma medição com n
replicações, (n > 20) com desvio padrão σ e
média µ, então a medição x pode ser reportada
como
x = µ ± 2σ
(95%)
µ - 2σ < x < µ + 2σ
(95%)
ou
7. Intervalos Estatísticos
O valor exato da média de uma população
de dados, µ, nunca pode ser determinado
exatamente por que tal determinação requer
um número infinito de medições. O que se faz
é tirar uma amostra significativa da população,
com n dados (n > 20) e achar a média
aritmética dos dados desta amostra, µ. Na
prática, usa-se uma amostra com (n < 20) e
tem-se a média x . Nesta situação, a teoria
estatística permite estabelecer limites em torno
da média da amostra, x , e garantir que a
média da população, µ, caia dentro destes
limites com um dado grau de probabilidade.
Estes limites são chamados de limites de
confiança e o intervalo que eles definem é
conhecido como o intervalo de confiança. Estes
limites são determinados multiplicando-se o
desvio padrão disponível (da população ou da
amostra) por um fator de cobertura, f, que está
associado com um grau de probabilidade, P%.
Os limites de confiança definem um intervalo
em torno da média da amostra que
provavelmente contem a média da população
total.
7.1. Intervalo com n grande (n > 20)
7.2. Intervalo com n pequeno (n < 20)
Quando a amostra tem um número pequeno
de dados, n < 20, a média µ se torna x , o
desvio padrão σ se torna s, torna-se s. As
equações passam para
x = x ± fs
(P%)
ou
x - fs < x < x + fs
Para o exemplo de probabilidade de 95%,
para a amostra (n ≤ 20) com média x , a
medição pode ser reportada como
x = x ± 2s
(95%)
x - 2s < x < x + 2s (95%)
7.3. Intervalo com n pequeno (n < 10)
Populações com n muito grande (n > 20)
requerem muito tempo para a computação de
39
Estatística da Medição
seus parâmetros e há uma grande
probabilidade de enganos nos cálculos. É mais
pratico e rápido trabalhar com populações com
número pequeno de dados (n < 10), por
exemplo 5 medições. Foram desenvolvidos
métodos científicos para tornar mínimos os
erros quando se manipulam amostras com
pequeno número de dados.
Neste caso, o desvio padrão aumenta, pois
ele é inversamente proporcional a n, e também
a incerteza aumenta. Agora, o fator de
cobertura é dado pelo t do Student, que é
x = x ± ts
ou
x - ts < x < x + ts
(P%)
t obtido de uma tabela que relaciona o seu
valor, a probabilidade associada e o número de
medições replicadas.
O parâmetro estatístico t é chamado de t do
Student, por que Student foi o pseudônimo
usado por W. S. Gosset, quando ele escreveu
o artigo clássico, t, que apareceu na revista
Biometrika, 1908, Vol. 6, Nr. 1. Gosset era
empregado da Guinness Brewery e sua função
era analisar estatisticamente os resultados da
análise de seus produtos. Com o resultado de
seu trabalho, ele descobriu o famoso
tratamento estatístico de pequenos conjuntos
de dados. Para evitar problemas com segredos
profissionais, Gosset publicou o papel sob o
pseudônimo Student.
A distribuição t-Student tem formato
semelhante ao da distribuição normal, exceto
que é mais achatada e se espalha mais
progressivamente para valores pequenos de n.
O teste t permite descobrir se toda a
variabilidade em um conjunto de medições
replicadas por ser atribuída ao erro aleatório.
Os valores de t caem muito rapidamente no
início e depois caem lentamente. Aumentar o
número de replicações da medição custa
tempo e nem sempre o ganho é significativo. O
número compromisso sugere três a quatro
replicações
Tab. 2.11. Tabela Resumida de t
ν
t50
t90
t95
1
2
3
4
5
6
7
8
9
10
15
20
30
60
1,00
6,31
12,71
0,82
2,92
4,30
0,76
2,35
3,18
0,74
2,13
2,78
0,73
2,02
2,57
0,72
1,94
2,45
0,71
1,90
2,36
0,71
1,86
2,31
0,70
1,83
2,26
0,70
1,81
2,23
0,69
1,75
2,13
0,69
1,72
2,09
0,68
1,70
2,04
0,68
1,67
2,00
0,68
1,64
1,96
∞
ν = (n-1), grau de liberdade
α = (1 - intervalo de confiança)
t99
63,66
9,92
5,84
4,60
4,03
3,71
3,50
3,36
3,25
3,17
2,95
2,84
2,75
2,66
2,58
onde
tP é o coeficiente de confiança, obtido de
tabelas, a partir do grau de liberdade (ν) e da
probabilidade (P%).
O grau de liberdade (ν) é dado por n-1,
onde n é o número de dados da amostra e a
probabilidade (P).
Por exemplo, para 5 replicações (grau de
liberdade 4), probabilidade de 95%, t vale 2,78
(Tab. 2.11) e se tem
2,78 s < x < 2,78 s
7.4. Intervalo para várias amostras
Quando se tem n conjuntos de amostras
com N dados (N ≤ 20), então se obtém o
desvio padrão das médias ( s x ) e o fator de
cobertura pode ser menor, porque o desvio
padrão das médias das amostras é mais
confiável que o desvio de apenas uma
amostra. Neste caso, divide-se o fator de
cobertura, f, por n . Por exemplo, para
probabilidade de P%, tem-se:
x−f
sx
n
<x<x+f
sx
n
(P%)
Quando o número de dados de cada
amostra é pequeno, o fator de cobertura se
torna o tP do Student e tem-se:
x = x ± tP
s
n
(P%)
Exemplo
40
Estatística da Medição
Para o conjunto de medições abaixo,
determinar:
1. média
2. desvio padrão estimado
3. desvio padrão relativo percentual
4. como os dados devem ser relatados para
um nível de 99% de confiança?
Medições
46,25
46,40
46,36
46,28
Media
46,32
46,32
46,32
46,32
Desvio
-0,07
+0,08
+0,04
-0,04
Respostas
3. dar razões para sua rejeição ou retenção,
p. ex., por um teste Q.
Quando um conjunto de dados contem um
resultado marginal que difere excessivamente
da média, a decisão que deve ser tomada é
rejeitar ou reter o dado. A escolha do critério
para rejeitar um resultado suspeito tem seus
perigos. Se estabelece uma norma rigorosa
que torna a rejeição difícil, corre-se o risco de
reter resultados que são espúrios e tem um
efeito indevido na média. Se estabelecem
limites indulgentes na precisão e torna fácil a
rejeição, provavelmente se jogará fora
medições que certamente pertencem ao
conjunto, introduzindo um erro sistemático aos
dados. Infelizmente, não existe uma regra para
definir a retenção ou rejeição do dado.
1. Média
x=
46,25 + 46,40 + 46,36 + 46,28
4
2. Desvio padrão estimado
s = 0,0695
3. Coeficiente de variação
CV =
0,0695
× 100% = 0,15%
46,32
4. Probabilidade de 99%, tem-se
α = 0,01
Grau de liberdade (4-1) = 3
Da tabela, tem-se
t = 5,84
Então o melhor valor da média é
46,32 ±
5,4 × 0,0695
4
= 46,32 ± 0,20
8. Conformidade das Medições
8.1. Introdução
Mesmo com métodos válidos, instrumentos
calibrados e procedimentos cuidadosos, ainda
há erros aleatórios e longe da média. Não são
sistemáticos nem aleatórios, mas grosseiros.
Um dado com erro grosseiro é marginal
(outlier). Quando se encontra um erro marginal,
deve-se:
1. retira-lo do conjunto de dados
2. identifica-lo
Fig. 2.9. Pontos suspeitos ou outliers
8.2. Teste Q
No teste Q, o valor absoluto (sem
considerar o sinal) da diferença entre o
resultado questionável e seu vizinho mais
próximo é dividido pela largura de
espalhamento do conjunto inteiro dá a
quantidade Qexp
Q exp =
xq − xn
w
Se Qexp > Qcrit, rejeite o dado
questionável.
Se Qexp < Qcrit, retenha o dado
questionável.
8.3. Teste do χ2 (qui quadrado)
O teste de χ2 (lê-se qui quadrado) é usado
para verificar se um fenômeno observado se
comporta como um modelo esperado ou
teórico. Por exemplo, ele pode ser usado para
comparar o desempenho de máquinas ou
outros itens. A vida útil de lâmpadas,
localizações da linha de centro de furos em
41
Estatística da Medição
placas, localizações de tiros de artilharia e
missões de bombardeio seguem a distribuição
χ2.
Quando se obtém um conjunto de
medições, assume-se que as medições são
uma amostra de alguma distribuição
conhecida, por exemplo, a normal. Para
comparar as diferentes partes da distribuição
observada, subdividem-se os dados em um
número de n classes e determina-se a
freqüência observada em cada classe. Depois,
estima-se a freqüência esperada de cada
classe, assumindo que a distribuição está de
conformidade com a distribuição original, por
exemplo, a normal, através dos seguintes
passos:
1. calcule o valor médio e o desvio padrão,
2. para cada intervalo da classe, assuma uma
variável normal padrão zh e zl para os
limites superior e inferior, respectivamente,
3. da tabela da distribuição normal, determine
as probabilidades da função entre (0 e zh)
e (0 e zl).Os valores dependem se é
tomado apenas um lado ou os dois lados
da curva.
4. a soma dos valores acima dá a
probabilidade no dado intervalo, se o limite
superior estiver entre (0 e +∞) e o limite
inferior estiver entre (0 e -∞) e vice-versa. A
diferença dos valores acima dá a
probabilidade se os dois limites cairem ou
entre (0 e +∞) ou (0 e -∞),
5. multiplique a probabilidade da distribuição
em um dado intervalo de classe pelo
número total de observações para obter a
freqüência esperada de ocorrências da
variável neste intervalo,
6. como a soma das freqüências esperadas
em todas as classes não é
necessariamente igual ao numero total de
observações, pois os arredondamentos
devidos à interpolação na tabela das
probabilidades provocam pequenas
diferenças, usa-se um fator de correção
para fazer a soma das freqüências
esperadas igual ao número de
observações.
7. a partir das freqüências esperadas em
várias classes, determina-se o parâmetro χ
2 pela equação
( fe 1 − fo 1 ) 2
fei
i =1
n
2
χ (n-m)
ν = ∑
onde
n é o número de valores que são somados
para produzir o valor de χ2
m é o número de constantes usadas no
cálculo das freqüências esperadas
(n - m) é o grau de liberdade, com índice ν.
fe1, fe2, ...fen são as n freqüências
esperadas,
fo1, fo2, ...fon são as n freqüências
observadas
Pode também se falar de uma distribuição χ
2, definida como:
⎡ (O − E ) 2 ⎤
i
i
∑ ⎢⎢ E ⎥⎥
i
⎦
⎣
onde
Oi é a freqüência da ocorrência observada
no io intervalo de classe
Ei é a freqüência da ocorrência esperada no
io intervalo de classe , baseada em uma
hipótese ou distribuição.
O objetivo é determinar se as freqüências
observadas e esperadas estão próximas o
suficiente para se concluir se elas são
provenientes de mesma distribuição de
probabilidade.
O numerador da expressão de χ2
representa os quadrados dos desvios entre as
freqüências esperadas e observadas nas n
classes e é sempre positivo. Estes valores são
normalizados em cada classe, dividindo-os
pela respectiva freqüência esperada de cada
classe.
A mesma ordem de desvio nas freqüências
esperadas e observadas causa relativamente
maior contribuição no parâmetro χ2 nas
extremidades da curva dos dados normalmente
distribuídos, em comparação com os valores
próximos do valor médio da curva. Isto é
explicado pelo fato de os valores relativamente
grandes das freqüências esperadas próximas
do valor médio dos dados estarem no
denominador de χ2.
Para evitar que as contribuições
anormalmente grandes no parâmetro χ2
quando as freqüências esperadas forem
pequenas, deve-se reagrupar as várias
classes, de modo que a freqüência esperada
em cada classe não seja menor que 5.
Se a distribuição da amostra está de
conformidade com a distribuição teórica
assumida, deve-se ter χ2 = 0. Quanto maior o
valor de χ2, maior é a discordância entre a
distribuição esperada e os valores observados.
Quanto maior o valor de χ2, menor é a
probabilidade que a distribuição observada
satisfaça a distribuição observada. Deste
modo, o parâmetro χ2 é muito útil na análise
estatística dos dados, para avaliar a validade
dos dados.
Para a aplicação do teste do χ2,
42
Estatística da Medição
1. determine o valor de χ2 para os dados
disponíveis
2. determine os valores dos graus de
liberdade F que é igual a (n - m),
3. determine a probabilidade de a medição
real estar de conformidade com a distribuição
esperada a partir das tabelas de χ2 ou do
diagrama χ2 - F.
Tab. 2.15 - Freqüências
#
1
2
3
4
5
Tab. 2.13 - Coeficientes e freqüência
Freqüência observada
3
10
12
16
10
6
3
Determinar se os valores dos coeficientes
de atrito seguem a distribuição normal ou não.
Os valores do teste χ2 até o nível de 10%.
Tab. 2.14 - Tabela de freqüências
Classe
0,44-0,46
0,46-0,48
0,48-0,50
0,50-0,52
0,52-0,54
0,54-0,56
0,56-0,58
foi
3
10
12
16
10
6
3
zl
-2,178
-1,525
-0,872
-0,219
0,434
1,088
1,741
zh
-1,525
-0,872
-0,219
0,434
1,088
1,741
2,394
P(zl)
0,485
0,436
0,308
0,086
0,167
0,361
0,459
P(zh)
0,4364
0,3084
0,0864
0,1678
0,3617
0,4592
0,4952
P(∆z)
0,0489
0,1280
0,2217
0,2545
0,1939
0,0975
0,0360
10,82
13,57
15,57
11,87
8,17
foi-fei
2,18
-1,57
0,43
-1,87
8,83
Total:
(foi-fei)2/fei
0,439
0,182
0,012
0,295
0,084
1,012
8.4. Teste de Chauvenet
Solução
1. Determinação do valor médio e do desvio
padrão:
x = 0,51
s = 0,03062
2. Usando a tabela da Distribuição Normal,
determinam-se as probabilidades entre os
intervalos das diferentes classes.
#
1
2
3
4
5
6
7
13
12
16
10
9
fei
Obtém-se χ2 = 1,012
O número de grau de liberdade F é
(n-m).
No problema, o número de termos que são
somados para dar χ2 é n = 5. O número m é
igual ao número de quantidades obtidas das
observações que são usadas no cálculos das
freqüências esperadas. No problema, m = 3,
porque há três quantidades: número total de
observações, o valor médio e o desvio padrão
dos dados que são usados no cálculo das
freqüências esperadas, então F = 5 - 3 = 2
Para 2 graus de liberdade, o valor de χ2 ao
nível de 10% de probabilidade do χ2, da tabela,
tem-se 4,605. Como o valor de χ2 = 1,012 não
é muito grande e como a probabilidade P(χ2) =
0,62 (obtida da curva onde χ2 =1,012 e F = 2)
está entre 0,1 e 0,9, resulta que os dados
devem ser aceitos ou que os dados estão
conforme a distribuição normal.
Exemplo
Os coeficientes de atrito entre o vidro e a
madeira foram medidos no laboratório com
uma técnica livre de erros sistemáticos. Os
dados obtidos são:
Coeficiente
0,44-0,46
0,46-0,48
0,48-0,50
0,50-0,52
0,52-0,54
0,54-0,56
0,56-0,58
foi
fei
2,99
7,83
13,57
15,57
11,87
5,97
2,20
Na tabela acima, as freqüências esperadas
da primeira e última classe são menores que 5
e por isso elas devem ser combinadas com as
classes adjacentes para fazê-las maiores que 5
e obtém os seguintes cálculos:
O teste de Chauvenet estabelece que uma
leitura pode ser rejeitada se a probabilidade de
se obter um desvio particular da média é menor
que 1/2n, onde n é o número de observações.
A tabela dá o valor do desvio do ponto para
média que deve ser excedido para rejeitar este
ponto. Assim que todos os pontos espúrios são
rejeitados, calcula-se uma nova média e um
novo desvio padrão para a amostra.
Tab. 2.16. Rejeição de espúrios pelo critério
de Chauvenet
Observações
dmax/σ
2
3
4
5
6
7
10
15
25
50
100
1,15
1,38
1,54
1,65
1,73
1,80
1,96
2,13
2,33
2,57
2,81
dmax é o desvio máximo aceitável
σ desvio padrão da população
43
Estatística da Medição
8.5. Outros Testes
8.7. Não-Conformidades
Existem vários outros testes estatísticos
para fornecer critérios para rejeição ou
retenção de outliers. Como o teste Q, estes
outros também assumem que a distribuição
dos dados da população seja normal.
Infelizmente, esta condição não pode ser
aprovada ou reprovada para amostras que
tenham muito menos que 50 resultados. As
regras estatísticas que são confiáveis para
distribuição normal de dados devem ser
usados com extremo cuidado, quando
aplicadas a amostras com poucos dados.
A aplicação cega de testes estatísticos para
determinar a rejeição ou retenção de uma
medição suspeita em um pequeno conjunto de
dados não é provavelmente mais confiável do
que uma decisão arbitrária. A aplicação de bom
julgamento baseado na experiência e
conhecimento do processo envolvido é um
enfoque válido. Enfim, a única razão válida
para rejeitar um resultado de um pequeno
conjunto de dados é a certeza que foi cometido
um erro no processo da medição. Deve-se ter
cautela para rejeitar um dado, por qualquer
razão.
As recomendações para o tratamento de um
pequeno conjunto de resultados que contem
um valor suspeito são:
1. Reexaminar cuidadosamente todos os
dados relacionados com o outlier para
ver se um erro grosseiro afetou seu
valor.
2. Se possível, estimar a precisão que pode
ser razoavelmente esperada para estar
seguro que o resultado suspeito
realmente é questionável.
3. Repetir a análise, se for possível. A
concordância ou discordância entre o
dado novo e o original suspeito serve
para manter ou rejeitar o dado suspeito.
4. Se não se tem nenhum dado adicional,
aplicar o teste Q ao conjunto existente
para ver se o resultado duvidoso deve
ser retido ou rejeitado em base
estatística.
5. Se o teste estatístico indicar a retenção,
considerar a mediana no lugar da média
do conjunto. A mediana tem a grande
virtude de permitir a inclusão de todos os
dados em um conjunto sem influência
indevida de um valor suspeito.
8.6. Conformidade (goodness of fit)
Os critérios estatísticos para verificar se um
conjunto de dados está de conformidade com
as distribuições teóricas assumidas são:
1. se os valores de probabilidade no teste χ
2 caem entre 0,1 e 0,9, então a
distribuição observada segue a
distribuição assumida, ou seja, não há
razão de duvidar da hipótese. Em certos
casos, o limite inferior da probabilidade χ
2, chamado de nível de significância,
pode ser reduzido para 0,05.
2. se o valor da probabilidade no teste χ2
está abaixo do limite inferior prescrito,
então o resultado é significante e os
dados da amostra são considerados
inteiramente diferentes da distribuição
assumida. Neste caso, o parâmetro χ2 é
muito grande.
3. Se o valor de χ2 é muito pequeno e
próximo de zero, então a probabilidade
pode exceder o limite superior de 0,9.
Embora isso seja difícil de se encontrar,
na prática, quando ocorrer, os dados são
considerados suspeitosamente bons.
Apostilas\Metrologia
2Estatística.DOC
24 SET 98 (Substitui 01 ABR 98)
44
3. Quantidades Medidas
Objetivos de Ensino
1. Conceituar as quantidades físicas quanto a energia e propriedades: intensivas ou
extensivas, variáveis ou constantes, continuas ou discretas, mecânicas ou elétricas,
dependentes ou independentes.
2. Apresentar os conceitos e notação da função e da correlação. Mostrar a função linear.
3. Listar as sete quantidades físicas de base e as duas complementares, mostrando seus
conceitos, unidades e padrões.
4. Listar as quantidades físicas derivadas mais comumente encontrada na Engenharia, de
natureza mecânica, elétrica, química e de instrumentação, mostrando seus conceitos,
unidades, padrões e realização física.
1. Quantidade Física
1.1. Conceito
Quantidade é qualquer coisa que possa ser
expressa por um valor numérico e uma unidade
de engenharia. Como exemplos,
1. massa é uma quantidade física expressa
em kilogramas;
2. velocidade é uma quantidade física
expressa em metros por segundo e
3. densidade relativa é uma quantidade
física adimensional.
O círculo não é uma quantidade física, pois
é caracterizado por uma certa forma
geométrica que não pode ser expressa por
números. O círculo é uma figura geométrica.
Porem, a sua área é uma quantidade física que
pode ser expressa por um valor numérico (p.
ex., π, 5) e uma unidade (p. ex., metro
quadrado).
Muitas noções que antes eram
consideradas somente sob o aspecto
qualitativo foram recentemente transferidas
para a classe de quantidade, como eficiência,
informação e probabilidade.
1.2. Valor da quantidade
O valor é uma característica da quantidade
que pode ser definida quantitativamente. O
valor é também chamado de dimensão,
amplitude, tamanho. Para descrever
satisfatoriamente uma quantidade para um
determinado objetivo, os valores de interesse
devem ser identificados e representados
numericamente. Cada valor é medido e
expresso em unidades. A unidade tem um
tamanho relativo e subdivisões que são
diferentes entre os diversos sistemas de
medição.
Pode-se somar ou subtrair somente
quantidades de mesma dimensão e unidade,
sendo a unidade do resultado igual à unidade
das parcelas. Pode-se multiplicar ou dividir
quantidades de quaisquer dimensões e a
dimensão do resultado é o produto ou divisão
das parcelas envolvidas.
É possível se ter quantidades adimensionais
ou sem dimensão. Geralmente são definidas
como a divisão ou relação de duas quantidades
com mesma dimensão; o resultado é sem
dimensão ou adimensional. Uma quantidade
adimensional é caracterizada completamente
por seu valor numérico. Exemplo de
quantidade adimensional é a densidade
relativa, definida como a divisão da densidade
de um fluido pela densidade da água (líquidos)
ou do ar (gases). Em instrumentação há vários
números adimensionais úteis como número de
Reynolds, Mach, Weber, Froude. O valor
numérico da quantidade, associado à unidade
também é adimensional. Por exemplo, no
comprimento 10 metros (10 m), 10 é um
número adimensional e metros é a unidade de
comprimento usada, cujo símbolo é m.
1.3. Classificação das Quantidades
As quantidades possuem características
comuns que permitem agrupá-las em
diferentes classes, sob diferentes aspectos.
Quanto aos valores assumidos, as
quantidades podem ser variáveis ou
constantes, contínuas ou discretas.
45
Quantidades Medidas
Sob o ponto de vista termodinâmico, as
variáveis podem ser intensivas ou extensivas.
Em outras palavras, elas podem ser variáveis
de quantidade ou de qualidade.
Com relação ao fluxo de energia
manipulada, as variáveis podem ser
pervariáveis ou transvariáveis.
Sob o ponto de vista de função, as variáveis
podem ser independentes ou dependentes.
Obviamente, estas classificações se
superpõem; por exemplo, a temperatura é uma
quantidade variável contínua de energia
intensiva, transvariável; a corrente elétrica é
uma variável continua de quantidade, extensiva
e pervariável.
Para se medir corretamente uma
quantidade é fundamental conhecer todas as
suas características. A colocação e a ligação
incorretas do medidor podem provocar grandes
erros de medição e até danificar perigosamente
o medidor.
Na elaboração de listas de quantidades do
processo que impactam a qualidade do produto
final é também necessário o conhecimento total
das características da quantidade.
Energia e Propriedade
As variáveis de quantidade e de taxa de
variação se relacionam diretamente com as
massas e os volumes dos materiais
armazenados ou transferidos no processo. As
variáveis extensivas independem das
propriedades das substâncias. Elas
determinam a eficiência e a operação em si do
processo. As variáveis de quantidade incluem
volume, energia, vazão, nível, peso e
velocidade de maquinas de processamento.
As variáveis de energia se relacionam com
a energia contida no fluido ou no equipamento
do processo. Elas podem determinar
indiretamente as propriedades finais do produto
e podem estar relacionadas com a qualidade
do produto. Elas deixam de ser importantes
assim que os produtos são feitos. Elas
independem da quantidade do produto e por
isso são intensivas. As variáveis de energia
incluem temperatura e pressão.
As variáveis das propriedades das
substâncias são especificas e características
das substâncias. Todas as grandezas
especificas são intensivas. Por definição, o
valor especifico é o valor da variável por
unidade de massa. Por exemplo, energia
especifica, calor especifico e peso especifico.
As principais variáveis de propriedade são: a
densidade, viscosidade, pH, condutividade
elétrica ou térmica, calor especifico, umidade
absoluta ou relativa, conteúdo de água,
composição química, explosividade,
inflamabilidade, cor, opacidade e turbidez.
Extensivas e Intensivas
O valor da variável extensiva depende da
quantidade da substância. Quanto maior a
quantidade da substância, maior é o valor da
variável extensiva. Exemplos de variáveis
extensivas: peso, massa, volume, área,
energia.
O valor da variável intensiva independe da
quantidade da substância. Em um sistema com
volume finito, os valores intensivos podem
variar de ponto a ponto. Sob o ponto de vista
termodinâmico, as variáveis de energia e das
propriedades das substâncias são intensivas,
porque independem da quantidade da
substância. Exemplos de variáveis intensivas:
pressão, temperatura, viscosidade, densidade
e tensão superficial.
Pervariáveis e Transvariáveis
Uma pervariável ou variável através
(through) é aquela que percorre o elemento de
um lado a outro. Uma perváriável pode ser
medida ou especificada em um ponto no
espaço. Exemplos: força, momento, corrente
elétrica e carga elétrica.
Uma transvariável ou variável entre dois
pontos (across) é aquela que existe entre dois
pontos do elemento. Para medir ou especificar
uma transvariável são necessários dois pontos
no espaço, usualmente um ponto é a
referência. Exemplos: deslocamento,
velocidade, temperatura e voltagem.
Todos os objetos em um sistema dinâmico
envolvem uma relação medida ou definida
entre uma transvariável e uma pervariável. Por
exemplo, o capacitor, resistor e indutor
elétricos podem ser definidos em termos da
relação entre a transvariável voltagem e a
pervariável corrente.
Variáveis e Constantes
A variável de processo é uma grandeza que
altera seu valor em função de outras variáveis,
sob observação ao longo de um tempo.
Constante ou variável constante é aquela cujos
valores permanecem inalterados durante o
tempo de observação e dentro de certos limites
de precisão.
Por exemplo, seja um tanque cheio de
água. A pressão que a coluna de água exerce
em diferentes pontos verticais é variável e
depende da altura. Porem, ao mesmo tempo,
a densidade da água pode ser considerada
constante, com um determinado grau de
precisão, em qualquer ponto do tanque. Diz-se,
então, que a pressão da água é uma
quantidade variável em função da altura liquida
e a densidade da água é uma quantidade
constante em função da altura liquida e do
tempo.
46
Quantidades Medidas
Pode-se considerar incoerente chamar uma
constante de variável. Porem, uma quantidade
constante é um caso especial de uma
quantidade variável. A constante é a variável
que assume somente um valor fixo durante
todo o tempo. Como, na prática sempre há
uma variabilidade natural em qualquer
grandeza, deve-se estabelecer os limites de
tolerância, dentro dos quais a grandeza se
mantém constante.
Em instrumentação, raramente se mede
continuamente uma constante. Como ela é
constante, basta medi-la uma única vez e
considerar este valor em cálculos ou
compensações. Por exemplo, a diferença de
altura do elemento sensor e do instrumento
receptor influi na pressão exercida pela coluna
líquida do tubo capilar. Esta altura é definida
pelo projeto, mantida na instalação e
considerada na calibração. Ela não é medida
continuamente, porem, quando há alteração de
montagem, o novo valor da altura é
considerado na calibração do instrumento.
O objetivo do controle de processo é o de
manter constante uma variável ou deixá-la
variar dentro de certos limites.
Parâmetro é uma quantidade constante em
cada etapa da experiência, mas que assume
valores diferentes em outras etapas. Deve-se
escolher os parâmetros mais significativos
entre as várias características do processo. Por
exemplo, quando se faz uma experiência para
estudar o comportamento da pressão de
líquidos em um tanque, usando-se líquidos
com densidades diferentes entre si, a
densidade, constante para cada liquido e
diferente entre os líquidos, é chamada de
parâmetro.
Contínuas e Discretas
Variável contínua é aquela que assume
todos os infinitos valores numéricos entre os
seus valores mínimo e máximo. Na natureza, a
maioria absoluta das variáveis é continua; a
natureza não dá saltos. Uma variável contínua
é medida. Exemplo de uma variável contínua: a
temperatura de um processo que varia
continuamente entre 80 e 125 oC.
Variável discreta é aquela que assume
somente certos valores separados. Na prática,
as variáveis discretas estão associadas a
eventos ou condições. Uma variável discreta é
contada. Por exemplo, uma chave só pode
estar ligada ou desligada. O número de peças
fabricadas é um exemplo de variável discreta.
Mecânicas e Elétricas
As quantidades mecânicas são as
derivadas do comprimento, massa, tempo e
temperatura. São exemplos de quantidades
mecânicas:
1. área e volume que dependem apenas do
comprimento.
2. velocidade e aceleração que envolvem
comprimento e tempo.
3. força, energia e potência que envolvem
massa, comprimento e tempo
4. freqüência que depende apenas do
tempo.
A produção contínua de eletricidade se
tornou realidade com a invenção da pilha por
Volta, em 1800. A análise dos circuitos
elétricos começou em 1827, quando George
Simon Ohm descobriu a relação entre
voltagem, corrente e resistência. Nesta época
as unidades destas grandezas ainda não eram
estabelecidas. Os valores de corrente eram
medidos com um arranjo de agulha compasso
e bobina. Os valores da tensão elétrica eram
estabelecidos em termos de potencial de uma
pilha voltaica específica. Os valores de
resistência eram estabelecidos em termos da
resistência de um comprimento particular de fio
de ferro com um diâmetro específico.
Era evidente a necessidade de um sistema
universal de unidades no campo elétrico,
relacionadas com as unidades mecânicas já
estabelecidas, como comprimento massa e
tempo. Em 1832, Karl Friedrich Gauss mediu a
intensidade do campo magnético da terra em
termos de comprimento, massa e tempo. Em
1849, Wilhelm Kohlraush mediu a resistência
em termos destas unidades. Wilhelm Weber,
em 1851, introduziu um sistema completo de
unidades elétricas baseado em unidades
mecânicas. Estes princípios de Weber formam
a base do sistema atual de medições elétricas.
Em 1861, a Associação Britânica para o
Avanço da Ciência introduziu o ohm padrão,
baseado no fio de liga platina-prata.
As unidades elétricas SI derivadas podem
ser definidas em função de quantidades
mecânicas.
O volt (V), unidade de diferença de potencial
e força eletromotriz, é a diferença de potencial
entre dois pontos de um fio condutor percorrido
por uma corrente constante de 1 A, quando a
potência dissipada entre estes pontos é igual a
1 W.
O ohm (Ω), unidade de resistência elétrica,
é a resistência elétrica entre dois pontos de um
condutor quando uma diferença de potencial
constante de 1 V aplicada a estes pontos
produz no condutor uma corrente de 1 A, o
condutor não sendo fonte de qualquer força
eletromotriz.
47
Quantidades Medidas
O coulomb (C), unidade de quantidade de
eletricidade, é a quantidade de eletricidade
transportada em 1 s por uma corrente de 1 A.
O farad (F), unidade de capacitância, é a
capacitância entre as placas do capacitor onde
aparece uma diferença de potencial de 1 V
quando é carregado por uma quantidade de
eletricidade de 1 C.
O henry (H), unidade de indutância elétrica,
é a indutância de um circuito fechado em que
uma força eletromotriz de 1 V é produzida
quando a corrente elétrica varia uniformemente
à taxa de 1 A/s.
O weber (Wb), unidade de fluxo magnético,
é o fluxo que, ligando um circuito de uma volta
produz nele uma força eletromotriz de 1 V se
for reduzido a zero em uma taxa uniforme de 1
s.
O tesla (T) é a densidade de fluxo de 1
Wb/m2.
As principais variáveis envolvidas na
indústria de processo são quatro: temperatura
(grandeza de base), pressão (mecânica),
vazão volumétrica ou mássica (mecânica) e
nível (mecânica). Em menor freqüência, são
também medidas a densidade (mecânica),
viscosidade (mecânica) e composição
(química). Porem, na instrumentação, são
manipulados os sinais pneumático (20 a 100
kPa) e eletrônico (4 a 20 mA cc). Por causa da
instrumentação eletrônica, as quantidades
elétricas como voltagem, resistência,
capacitância e indutância se tornaram muito
importantes, pois elas estão ligadas
naturalmente aos instrumentos eletrônicos de
medição e controle de processo e de teste e
calibração destes instrumentos.
1.4. Faixa das Variáveis
Faixa e Largura de Faixa
Os limites mínimo e máximo definem a faixa
(range) de operação do sistema. A faixa de
operação da entrada é definido como
estendendo de xmin até xmax. Esta faixa define
sua largura de faixa de entrada (span),
expressa como a diferença entre os limites da
faixa
ri = xmax - xmin
De modo análogo, a faixa de operação da
saída é especificada de ymix para ymax. A largura
de faixa da saída ou fundo de escala de
operação é expressa como:
faixa vale 15 oC; (30 - 15 oC = 15 oC). A faixa
de temperatura de -15 a 30 oC tem largura de
faixa de 45 oC; [30 - (-15) oC = 45 oC].
A faixa de medição sempre vai de 0 a
100%, porem o 0% pode ser igual ou diferente
de zero. A terminologia das faixas é a seguinte:
0 a 100 oC - faixa normal
10 a 100 oC - faixa com zero suprimido
-10 a 100 oC - faixa com zero elevado
O conceito de faixa com zero elevado ou
suprimido é particularmente importante na
calibração de transmissores de nível.
Limites de Faixa
É importante evitar extrapolação além da
faixa da calibração conhecida durante a
medição pois o comportamento do sistema de
medição não é registrado nesta região. A faixa
de calibração deve ser cuidadosamente
escolhida e deve ser consistente com a faixa
de operação do sistema de medição.
Na prática, uma variável pode ter limites de
operação normal e limites de operação
anormal. Os limites de operação normal são
aqueles assumidos pela variável quando não
há problemas no controle automático do
processo. Quando há falhas no controle
automático e estes limites são atingidos,
geralmente existem alarmes que chamam a
atenção do operador para assumir o controle
manual do processo. O operador deve levar os
valores da variável novamente para dentro dos
limites de operação normal, atuando
manualmente nos instrumentos e
equipamentos do processo. Quando, por
motivos de falha em algum equipamento ou
instrumento da malha de controle automático, a
variável continua se afastando dos limites de
operação normal, geralmente são
estabelecidos outros limites de desligamento
(trip ou shut down). Quando a variável atinge
os valores de desligamento, todo o processo é
desligado, para proteger o operador ou os
equipamentos envolvidos.
Há variáveis que podem assumir valores
negativos e positivos, em função do processo e
da unidade usada. Por exemplo, a pressão
manométrica pode ter valores positivos e
negativos (vácuo). Porem, a pressão absoluta
só pode assumir valores positivos. A
temperatura na escala Celsius pode assumir
valores negativos ou positivos; porem, a
temperatura absoluta ou termodinâmica só
pode assumir valores positivos, em kelvin.
ro= ymax - ymin
Por exemplo, a faixa de temperatura de um
ambiente pode ser de 15 a 30 oC. A largura de
48
Quantidades Medidas
Faixa e Desempenho do Instrumento
Em Metrologia, é importante se conhecer a
faixa calibrada do instrumento e o seu ponto de
trabalho, pois tipicamente, a precisão do
instrumento é expressa ou em percentagem do
fundo de escala ou em percentagem do valor
medido.
O instrumento com erro de zero e de largura
de faixa possui precisão expressa em
percentagem do fundo de escala. Por exemplo,
a medição de vazão com placa de orifício tem
incerteza expressa em percentagem da vazão
máxima medida ou do fundo de escala.
Instrumento com erro devido apenas à
largura de faixa possui precisão expressa em
percentagem do valor medido. Por exemplo,
transmissor inteligente de pressão diferencial,
turbina medidora de vazão.
1.5. Função Matemática
Conceito
A função é uma regra ou lei de acordo com
a qual os valores da variável independente
correspondem aos valores da variável
dependente. A função é a lei de
correspondência entre os valores das variáveis.
A função é uma relação causal. Podem existir
regras para determinar o valor da variável
dependente para cada valor do argumento sem
relação matemática conhecida. Por exemplo, a
temperatura ambiente varia ao longo de um dia
ou de um ano, de modo aleatório e
imprevisível.
As variáveis podem ser independentes ou
dependentes de outras variáveis. As variáveis
independentes podem se alterar
arbitrariamente e são também chamadas de
argumentos. Variáveis dependentes tem
valores determinados pelos valores de outras
variáveis independentes e são também
chamadas de funções.
Por exemplo, a área do círculo S
S = π r2
r é a variável independente ou argumento
S é a variável dependente ou função.
As funções podem depender de um único
argumento (área do círculo em função do raio)
ou de dois ou mais argumentos. Por exemplo,
a pressão de gás com massa constante, p
p = RT/V
depende da temperatura (T) e do volume do
gás (V) e R é uma constante física.
Notação
Quando y é função genérica de x, tem-se:
y = f(x)
onde x pode assumir certos valores
particulares.
Quando a função é conhecida, pode-se ter:
y = ax + b (linear)
onde a e b são parâmetros constantes
arbitrários.
Uma função matemática pode ser
representada por:
1. fórmula analítica
2. tabela de valores
3. gráfico.
Domínio ou definição da função é a
totalidade dos valores que a variável
independente pode assumir.
função pode ser contínua ou discreta. A
função é continua quando a variação gradual
do argumento resulta em variação gradual da
função, sem pulos. A função é discreta quando
ela possui pontos de descontinuidade. A
função pode ser periódica, quando se repete
em intervalos definidos. A função pode ser
constante, quando assume um único valor. A
função pode assumir valores múltiplos e ser
sempre crescente ou decrescente.
Função Linear
Na prática, a função linear é muito
interessante e comum. A forma geral de uma
função linear é:
y = ax + b
onde
y é a função
x é o argumento
a e b são parâmetros constantes.
A representação gráfica de uma função linear é
uma linha reta, onde
a é a inclinação da reta
b é o ponto onde a reta corta o eixo y
-b/a é o ponto onde a reta corta o eixo x
A linearidade é um dos parâmetros da
precisão do instrumento. Ser linear é
conveniente pois,
1. dois pontos (ou um ponto e uma
inclinação) são suficientes para
determinar uma reta e como
conseqüência, bastaria calibrar dois
únicos pontos de uma reta de calibração,
2. é fácil se fazer interpolação e
extrapolação de pontos.
Quando se tem uma relação não-linear é
comum e conveniente linearizá-la, através da
função matemática inversa. Por exemplo, na
medição da vazão com placa de orifício, onde a
49
Quantidades Medidas
pressão diferencial gerada pela placa é
proporcional ao quadrado da vazão que se
quer medir, usa-se o extrator de raiz quadrada
para tornar linear a relação entre a pressão
diferencial e a vazão.
O incremento de uma função linear é
diretamente proporcional ao incremento do
argumento:
∆y = k ∆x
Esta propriedade do incremento é a base da
interpolação linear. Suponha que se conheçam
os valores de uma função y = f(x) para
x = xo e x = (xo + h):
f(xo) = yo
(fxo + h) = y1
mas os valores para a função y para x entre x0
e
(x0 + h) sejam desconhecidos. A função
pode ser substituída por um segmento de reta
que
1. assuma mesmos valores para x0 e (x0 +
h)
2. substitua a função por uma linha reta
entre x0 e (x0 + h)
y −y
y = yo + 1 o ( x − xo )
h
Tal substituição é possível e válida no caso
da função f(x) diferir levemente da função linear
no intervalo entre xo e (xo + h). A interpolação
é usada, na prática, em tabelas com pequenos
intervalos e quando os sucessivos valores da
função diferem levemente entre si. A
extrapolação linear se processa de modo
semelhante.
Correlação
Correlação é a relação entre duas variáveis
aleatórias que não é função determinística. Por
exemplo, a relação entre o peso e a altura das
pessoas é uma correlação. O peso não
depende unicamente da altura da pessoa. Se o
peso fosse função apenas da altura, todas as
pessoas mais altas seriam mais pesadas que
as mais baixas. Mas, na realidade, pessoas de
mesma altura tem pesos diferentes e pessoas
com alturas diferentes podem ter pesos iguais.
Mesmo com tantas exceções, há uma
correlação entre a altura e o peso das pessoas,
e de um modo geral, as pessoas mais altas
pesam mais que as pessoas mais baixas.
Outro exemplo, é a correlação entre o ato
de fumar e a duração da vida das pessoas.
Quando se diz que o fumo reduz a duração da
vida de uma pessoa, também há um correlação
ou dependência correlativa, porque, embora
haja muitas exceções, experimentalmente se
verifica que a vida média dos não fumantes é
maior do que a dos fumantes, quando se
considera a distribuição da probabilidade da
duração da vida.
Define-se como coeficiente de correlação a
medida da interdependência entre duas
variáveis. O coeficiente varia continuamente
entre +1 e -1, passando pelo valor zero
intermediário. Quando o coeficiente é zero, não
há correlação entre as duas variáveis e elas
são totalmente independentes. O coeficiente de
correlação +1 indica uma correlação positiva
perfeita, quando uma variável é linear e
diretamente proporcional a outra; quando uma
aumenta a outra também aumenta. O
coeficiente de correlação -1 indica uma
correlação negativa perfeita, onde uma variável
é inversamente proporcional a outra; quando
uma aumenta a outra diminui linearmente.
Deve-se distinguir claramente entre a
relação determinística (função matemática),
onde não há exceção alguma e a dependência
correlativa (correlação), onde há muitas
exceções que contradizem a relação, mas que
não afetam a validade geral da inferência de
probabilidade.
2. Quantidades de Base do SI
As unidades SI são divididas em três
classes:
1. unidades de base
2. unidades suplementares
3. unidades derivadas
As sete grandezas de base possuem os
seguintes nomes (unidades), dimensão:
1. comprimento (metro), L
2. massa (kilograma), M
3. tempo (segundo), T
4. temperatura (kelvin), Θ
5. corrente elétrica (ampere), I
6. quantidade de matéria (mol), N
7. intensidade luminosa (candela), J.
As grandezas de base eram anteriormente
chamadas de grandezas fundamentais. As sete
unidades base foram selecionadas pela CGPM
ao longo do tempo e para atender as
necessidades dos cientistas em suas áreas de
trabalho. As primeiras quantidades definidas
eram de natureza mecânica. Depois se definiu
a grandeza elétrica (corrente), a termodinâmica
(temperatura), luminosa (intensidade luminosa)
e a química (quantidade de matéria).
Há três quantidades totalmente
independentes: massa, comprimento, tempo.
Somente a massa tem um padrão material.
Hoje, pesquisa-se para se reduzir as unidades
a duas independentes: massa e tempo. As
unidades de base são bem definidas e
independentes dimensionalmente.
50
Quantidades Medidas
As duas unidades suplementares foram
adicionadas na 11a CGPM (1960).
1. ângulo plano (radiano)
2. ângulo sólido (esterradiano).
Como a CGPM deixou de chamá-las de
base ou derivadas, elas são consideradas
suplementares. Foram levantadas questões
acerca da razão destas unidades não serem
adotadas como de base. Por analogia, elas
poderiam ser consideradas como de base.
Tab. 3.1 - Grandezas e Unidades de Base SI
Quantidade Física
Comprimento
Massa
Tempo
Temperatura
Corrente elétrica
Intensidade luminosa
Quantidade de substância
Unidade
metro
kilograma
segundo
kelvin
ampere
candela
mol
Símbolo
m
kg
s
K
A
cd
mol
Em 1980, a CIPM decidiu, para manter a
coerência interna do SI, considerar as unidades
radiano e esterradiano como unidades
derivadas sem dimensão.
As unidades derivadas são aquelas
formadas pelas relações algébricas entre as
unidades de base, suplementares e outras
derivadas.
A classificação das unidades SI em três
classes é arbitrária e não é realmente
importante para usar e entender o sistema. As
três classes de unidades formam um sistema
de medição coerente, pois o produto ou
quociente de qualquer quantidade com
múltiplas unidades é a unidade da quantidade
resultante.
2.1. Comprimento
Introdução
O comprimento é uma grandeza de base
cujo símbolo é L. Na prática, o comprimento
vem em outros parâmetros, como variação
relativa (m/m), área (m2), volume (m3), ângulo
(m/m), velocidade (ms-1) e aceleração (ms-2).
A medição de comprimento pode ser de
valor absoluto e relativo. A medição do
comprimento absoluto requer um padrão
definido; para medir comprimento relativo o
padrão não é fundamental. É diferente medir o
comprimento de uma estrutura em termos
absolutos e medir a variação da estrutura
provocada por uma tensão mecânica.
Experimentalmente se percebe que o
espaço pode ser descrito em termos de três
parâmetros de comprimento (x, y, z). Três
coordenadas são suficientes para descrever a
posição de um ponto no espaço. Restringindose o grau de liberdade mecânica, define-se a
posição. Para medir a posição ao longo de uma
reta definida, basta um comprimento. Para
plotar a posição em um plano definido são
necessários dois sensores. Estes conceitos
são muito importantes em robótica, pois um
robô é um controlador de posição.
Unidades
A unidade SI de comprimento é o metro,
com símbolo m.
A etimologia da palavra metro é metron,
grego, que significa medir e este termo foi
usado pela primeira vez em 1670, pelo padre
matemático Gabriel Mouton (1618-1694), que
definiu 1 metro como 1/10 000 000 da distância
entre o Equador e o Polo Norte da Terra.
Em 1790, Laplace definiu o metro pelo
mesmo procedimento, porem usou múltiplos de
10, dividindo o ângulo reto em 100 graus (em
vez de 90) e o grau em 100 minutos (em vez
de 60) e 1000 metros eram a distância de 1
minuto deste grau na superfície da Terra.
Usando o mesmo procedimento, porem, com o
ângulo reto de 90 graus e o grau com 60
minutos, 1000 metros seriam equivalentes a
uma milha náutica, ou seja, o metro valeria
1,853 184 metros atuais. Posteriormente, o
metro foi definido de modo a ser igual a 1/10
000 000 da distância do Polo Norte ao
Equador, ao longo do meridiano da terra
passando por Dunquerque, França e
Barcelona, Espanha, duas cidades ao nível do
mar e no paralelo 45o. Desse modo, a
circunferência da terra tem aproximadamente
40 000 000 m. O metro atual é
aproximadamente igual ao wand, unidade
padrão de comprimento criada no Egito em
3500 A.C., para medir a variação do nível do
Rio Nilo, para fins de coleta de água e
irrigação.
Na 1a CGPM (1889) o metro foi definido
como o padrão físico constituído de uma barra
de platina (90%) e irídio (10%), que era
considerado o Metro Protótipo Internacional.
Fig. 3.1. Corte da barra do Metro Protótipo Internacional
51
Quantidades Medidas
A 7a CGPM (1927) definiu o metro como a
distância entre dois traços gravados sobre a
barra de platina iridiada, apoiada sobre dois
rolos de, no mínimo, 10 mm de diâmetro,
situados simetricamente num mesmo plano
horizontal à distância de 571 mm um do outro,
a 0o C e à pressão atmosférica normal . Pela
comparação física das linhas desta barra com
um protótipo secundário se consegue uma
exatidão dentro de 2 partes em 107
A 11a CGPM (1960) substituiu o padrão
físico do metro por padrão de receita. O metro
foi definido como o comprimento igual a
1 650 763,73 vezes o comprimento de onda da
radiação de transição entre as linhas laranja
vermelha, níveis 2p10 e 5d5 do espetro do
átomo de Kr-86, no vácuo. Esta definição tem
problemas, o principal é que este número
somente é conseguido por extrapolação, pois
não é possível estender uma quantidade exata
de ondas alem de alguns 20 centímetros. Para
se obter o número requerido de comprimentos
de onda para um metro, várias medições
individuais eram feitas por sucessão e
adicionadas. Este procedimento de medição,
por sua natureza, aumenta a probabilidade de
erro. Mas, a despeito destas limitações, a
exatidão está dentro de 2 partes em 108.
A 17a CGPM (1983) redefiniu o metro como
a distância percorrida pela luz, durante a fração
de 1/299 792 458 de um segundo, no vácuo.
Esta nova definição dá uma exatidão 10 vezes
melhor que a da técnica com Kr-86, cerca de 2
partes em 10-9.
Na prática industrial, raramente se exige
este grau de exatidão, porem deve-se ter uma
margem adequada para compensar a perda de
incerteza toda vez que os padrões são
transferidos para um aparato mais conveniente.
O valor da velocidade da luz, c, igual a 299 792
458 ms-1 é o resultado de padrões numéricos
escolhidos para o tempo e comprimento.
Assim, o valor da velocidade da luz não é uma
constante fundamental. Os padrões de tempo
(com incerteza de 10-14) são mais
reprodutíveis em termos de incerteza que os de
comprimento (incerteza de 10-8), de modo que,
se a velocidade da luz é definida como um
número fixo, então, em princípio, o padrão
tempo servirá como um padrão de
comprimento, desde que exista um aparato
conveniente para converter tempo para
comprimento através da velocidade da luz.
A realização do metro recomendada pela
17a CGPM (1983) é obtida por um dos
seguintes métodos:
1. através do comprimento L do trajeto
percorrido por uma onda eletromagnética
plana, no vácuo, durante um intervalo de
tempo t (L = ct) ou
2. através do comprimento de onda no
vácuo de uma onda eletromagnética de
freqüência f (L = c/f).
A realização mais prática do metro é pela
medição do comprimento da radiação 630 nm
do laser hélio neon estabilizado por iodo, que
dá uma precisão de 3 partes em 1011. Os
padrões secundários são calibrados por
interferometria, com precisão de 10-9.
As outras unidades de comprimento usadas
incluem o milímetro, centímetro, kilômetro e
micrômetro. Estes múltiplos e submúltiplos
servem para selecionar prefixos que sejam
múltiplos de 1000.
O uso do milímetro (mm) é comum em
desenhos mecânicos. Os valores expressos
em milímetros devem ser números inteiros, a
não ser que a precisão requeira dígitos depois
da vírgula.
O centímetro é usado apenas em medidas
não técnicas e em produtos de consumo.
Também é usado em unidades derivadas,
como pressão (kgf/cm2), condutividade (S/cm).
Fig. 3.2. Régua metálica para medição de
comprimentos com pequena precisão
Fig. 3.3. Paquímetro para medir pequenas
dimensões
Fig. 3.4. Micrômetro para medir pequenas
dimensões com maior precisão que o paquímetro
52
Quantidades Medidas
Em grandes distâncias, usa-se o kilômetro,
onde não se usam mais que três dígitos depois
da vírgula. Em pequenas distâncias, como em
acabamento mecânico e física, pode-se usar o
micrômetro (µm) e o nanometro (nm) para
números mais exatos.
Padrões e Calibração
O padrão de comprimento era uma barra de
platina irídio preservada em Sèvres, França.
Atualmente o metro é redefinido em termos de
receita.
Na prática laboratorial, o interferômetro a
laser é usado, com incerteza de 10-8. O
interferômetro óptico é fácil de usar e é preciso,
mas muito caro.
Na prática industrial, a medição de peças é
feita através de paquímetros e micrômetros,
que são calibrados com blocos padrão (gage
block). Os blocos são de aço
dimensionalmente estável e duro e formam um
conjunto que fornece dimensões precisas em
uma grande faixa em pequenos degraus. Os
blocos são os padrões de comprimento da
indústria. As oficinas mecânicas devem ter
conjuntos de blocos, que devem ser
periodicamente enviados a um laboratório
externo para fins de calibração e certificação.
Para comprimentos da ordem de metros,
fitas flexíveis são usadas, por causa do baixo
custo e grande facilidade de manuseio. Elas
devem ser calibradas contra interferômetros a
laser, com incertezas de 10-6. Para aplicações
industriais, é fácil calibrar os medidores de
comprimento. O problema mais sério da
calibração é o grande tempo envolvido, pois o
padrão deve ser observado por um período
longo para garantir que ele seja estável durante
a calibração.
Fig. 3.6. Conjunto de blocos padrão
2.2. Massa
Unidade
O kilograma* é a unidade SI de massa com
símbolo é kg.
O kilograma tem as seguintes
características:
1. única unidade de base com prefixo (kilo
= mil),
2. única unidade de base definida por um
artefato (padrão físico),
3. escolhido em 1889 e praticamente sua
definição não sofreu nenhuma
modificação ou revisão.
O kilograma padrão protótipo é um cilindro
de platina (90%)-irídio (10%) mantido no
Bureau de Pesos e Medidas em Sèvres,
França. O protótipo possui diâmetro e altura
iguais a 39 mm. Esta forma é uma
aproximação da esfera, que tem a propriedade
de apresentar a menor razão entre a superfície
e o volume. 63 duplicações deste cilindro estão
distribuídas nos vários laboratórios nacionais
de normas e servem como padrão de massa
para estes países. A precisão é 1 parte em
109, ou seja, 1 µg em 1 kg. No Brasil, o
kilograma padrão está preservado no
INMETRO, em Xerém, RJ.
A unidade SI de massa já foi o grama (na
prática, o mais usada é a grama) definido como
a massa de um centímetro cúbico (cubo com
lado igual a 1/100 de metro) de água em sua
temperatura de máxima densidade (4 oC).
Fig. 3.5.. Apalpadores - padrão de comprimento
*O correto em português é escrever quilograma, porém no presente
trabalho será usada a palavra kilograma. Por coerência de grafia,
kg não pode ser símbolo de quilograma.
53
Quantidades Medidas
Fig. 3.7. O kilograma padrão
Padrões
O padrão primário da unidade de massa é o
protótipo internacional do kilograma do BIPM. A
massa de padrões secundários de 1 kg em liga
de platina irídio ou em aço inoxidável é
comparada à massa do protótipo por meio de
balanças cuja precisão pode ser da ordem de
10-8, fazendo-se a correção do empuxo do ar.
Como visto, o peso é uma força. Os objetos
são pesados, pela comparação do peso
desconhecido com um peso conhecido. O
equipamento usado para pesar coisas é a
balança. A etimologia de balança é latina: bilancis ou dois pratos. A palavra balança ainda
é usada, mesmo quando se tem dois pratos
para a pesagem. No lugar do segundo prato,
onde se colocaria o peso conhecido, são
usados mola, pesos calibrados embutidos ou
um servomotor.
Há quatro classes de balanças, cada uma
baseada no número de intervalos usados
dentro da capacidade da escala. Por exemplo,
se uma balança de laboratório tem uma
capacidade de 200,00 gramas e ela lê dois
decimais, ela deve ter 20 000 intervalos na
escala. A OIML (Organization International de
Metrologie Legal) classifica as balanças em 4
classes (Tab. 3.2).
Tab.3.2 - Classificação de Balanças
Classe
I
II
III
IV
a
Nome da Classe
Especial
(Fina)
Alta exatidão
(Precisão)
Média exatidão
(Comercial)
Exatidão ordinária
(Grosseira)
Intervalos da escala
50 000 < na
5 000 <n < 100 000
500 < n < 10 000
Balança
A balança é um instrumento para a
comparação de massas e pesos. A balança
analítica é um instrumento de pesagem com
uma capacidade máxima que varia de uma
grama a alguns kilogramas com uma precisão
mínima de 10-5, na capacidade máxima. A
balança mecânica se baseia no princípio da
alavanca de primeira classe (o ponto de apoio
está entre as duas forças). As balanças
mecânicas analíticas podem ser do tipo de
braços iguais e do tipo de substituição.
Atualmente, são disponíveis balanças
eletrônicas, com detetor de nulo, malha de
realimentação para controlar a força de
balanço e indicação digital com precisão típica
de 10-6. O sensor da balança é o strain-gage.
No uso de balanças de precisão são
requeridos alguns cuidados para minimizar as
incertezas, como:
1. qualquer balança deve ser colocada em
um suporte sólido, de mármore ou
concreto e distante de fontes de calor,
vibração e corrente de vento,
2. nivelar a balança,
3. não colocar objetos além da capacidade
nominal da balança,
3. a balança deve ser limpa após o uso,
4. não usar ou colocar material corrosivo
próximo da balança,
5. o braço de suporte da balança deve
estar sempre engajado. Quando não em
uso, todos os pesos devem ser voltados
para a posição zero e os pratos
colocados na posição suporte,
6. estudar o manual da balança fornecido
pelo fabricante,
7. calibrar periodicamente a balança e os
pesos associados.
Na indústria são usados pesos padrão para
calibrar e determinar a exatidão das balanças.
O peso padrão é um objeto com massa
conhecida, feito de material resistente à
corrosão (bronze, ouro, prata, platina, aço
inoxidável, ligas nobres). Os laboratórios
nacionais estabelecem classes de pesos, com
limites de tolerância aceitáveis e
especificações para materiais e construção.
Por exemplo, em uma oficina, os pesos de
Classe S são usados para calibração de rotina
e para aferição de balanças analíticas.
100 < n < 1 000
n - número de intervalos da escala
54
Quantidades Medidas
Fig. 3.8. Balança eletrônica analítica. (Toledo)
Massa e Peso (Força)
Massa é uma medida invariante da
quantidade de matéria de um objeto. Peso é a
força de atração entre um objeto e a Terra e
varia com a posição geográfica. O peso P de
um corpo com massa m, em um local com
aceleração da gravidade g, vale: P = mg
Há confusão entre força e massa,
principalmente por que já foi usada a unidade
base de kilograma força para força.
Atualmente, no SI há uma unidade base para
massa (kilograma) e outra unidade derivada
para força (newton). O peso é uma força,
resultante da gravidade da Terra e como tal,
sua unidade é também o newton. Porém, o
peso também é expresso como kilograma
força. Por preguiça, expressa-se o peso em
unidade de kilograma, criando a confusão:
peso é massa ou força? O peso é uma força.
A unidade SI de força é o newton, onde:
A balanças mede peso, porém, tem escala
para indicar a massa. Por exemplo, quando
uma balança indica 70 kg, ela sente o peso
correspondente à massa de 70 kg e indica 70
kg.
Deve-se evitar o uso da unidade kilograma
força, pelo menos por quatro motivos justos:
1. não é uma unidade SI
2. perpetua a confusão entre força, peso e
massa.
3. a unidade possui um prefixo
4. a unidade depende da altitude do local.
Em resumo, tem-se:
1. A unidade SI para massa é o kilograma,
kg
2. A unidade SI para força é o newton (N).
Não use kilograma força.
3. A gravidade não é essencial no SI.
4. Deve-se usar e medir a massa, evitando
o uso do peso. Em vez de dizer: ele
pesa, dizer sua massa é igual a.
Fig. 3.9. Conceito de massa e peso
1 N = 1 kg . 1 m/s2
Outra unidade usada de força, não-SI, é o
kilograma força, onde:
1 kgf = 1 kg x aceleração da gravidade
Ao nível do mar, tem-se 1 kgf = 9,806 65 N
O peso descreve como a massa de um
objeto é atraída pela Terra. O peso não é
constante e varia principalmente com a altitude
do local. A massa é constante e independe do
local. Por exemplo, na Terra, um homem pesa
100 kgf, mas na Lua, ele pesa somente 17,5
kgf. Sua massa na Terra e na Lua é a mesma e
igual a 100 kg.
55
Quantidades Medidas
2.3. Tempo
Introdução
O tempo é a variável mais presente na vida
das pessoas embora seja também a menos
entendida. Percebe-se que o tempo envolvido
tem o valor alterado com a passagem de
eventos mas não se tem o conceito de tempo
absoluto. O que pode e realmente é medido é a
noção de intervalo de tempo, duração de
seqüências e de eventos. Assim, o tempo é
definido como o intervalo entre dois eventos e
as medições deste intervalo são feitas pela
comparação com algum evento reprodutível.
Por exemplo, o tempo requerido para a Terra
orbitar em torno do sol (um ano) e o tempo
requerido para a Terra rodar em torno de seu
próprio eixo (um dia). O tempo de efeméride é
baseado nas medições astronômicas do tempo
requerido pela Terra para orbitar o Sol. O
tempo sideral é o tempo de rotação da Terra
relacionada com as estrelas distantes e é
usado em astronomia. O tempo solar é o tempo
da rotação da Terra com relação ao Sol e é
usado na vida diária.
Há 4000 anos (intervalo de tempo), os
egípcios mediam o tempo através da sombra
de uma vara. Os romanos e gregos
melhoraram o princípio da sombra com o
relógio solar. Algumas sociedades ainda
marcam o tempo com ampulhetas cheias de
areia ou líquidos, gotejamento de água e
queima de velas. No século XV, na Europa, foi
inventado o mecanismo do relógio. No século
XVI apareceu o relógio de bolso. Estes relógios
eram puramente mecânicos e se baseavam em
molas, engrenagens e alavancas. Depois foi
criado o relógio eletrônico, alimentado com
bateria e com um pequeno diapasão que
mantinha uma freqüência natural de 360 Hz ou
aproximadamente a freqüência da nota musical
Dó. Atualmente são usados relógios eletrônicos
com circuitos integrados e com cristais
piezoelétricos (quartzo) para geração de
freqüências constantes.
Definições
O tempo é uma grandeza atípica, pois é a
única cuja unidade não pode ser colocada lado
a lado para aumentar ou diminuir uma escala.
Qual é a duração de um segundo e como é
possível armazenar esta medição? As
tentativas da medição do tempo através do
movimento do pêndulo se mostraram inexatas
por causa da dificuldade de medir exatamente
as posições do pêndulo móvel.
O segundo foi inicialmente definido como a
fração de 1/86 400 do dia solar médio (período
médio da revolução da Terra sobre seu eixo)
Como o dia solar não é constante mas varia
com a velocidade de rotação da Terra, cerca
de 3 segundos por ano, foi selecionado um
novo padrão mais exato e reprodutível.
A 11a CGPM (1960) redefiniu o segundo
baseando-se no ano trópico. Por esta definição
sugerida pela União Astronômica Internacional
e para uso científico, o segundo vale
1/31 556 925,974 7 do ano tropical no tempo
de 12 h das efemérides de 0 janeiro 1900. O
tempo de efeméride é uma medida uniforme do
tempo definido pelo movimento orbital dos
planetas. Uma falha grave desta definição é
que não se pode medir um intervalo de tempo
pela comparação direta com o intervalo de
tempo definindo o segundo. A medição
astronômica do tempo resulta em erro provável
estimado de 10-9 que é muito grande em
comparação com a definição do segundo.
Fig. 3. 10 Definição do segundo
O átomo exibe transições de nível de
energia hiperfina muito regulares e é possível
contar estes ciclos de energia. A 13a CGPM
(1967) redefiniu o segundo como a duração de
9 192 631 770 períodos da radiação
correspondente à transição entre os dois níveis
hiperfinos do estado básico do átomo de Ce133.
O segundo é realizado por um relógio de césio,
com precisão de 2 partes em 1011. Pode-se
obter precisão de 1 parte em 1012. O relógio
atômico não atrasa ou adianta um segundo em
6 000 anos.
Unidades
A unidade base SI do tempo é o segundo,
com o símbolo s.
Além do segundo, outras unidades
continuam sendo usadas, principalmente os
ciclos do calendário, como ano, dia e os
múltiplos do segundo, como minuto e hora.
Exemplos destes usos são: velocidade em
kilômetro por hora (km/h) e velocidade
rotacional de máquina em rotações por minuto
(r/min) ou RPM. Os ciclos do calendário, como
dia, semana, mês e ano, devem ser evitadas
pois há muitas interpretações diferentes.
Quando usados, os ciclos do calendário devem
56
Quantidades Medidas
ser definidos; por exemplo, um mês pode ser
1/12 do ano ou 30 dias.
Excepcionalmente, as unidades de tempo
não estão relacionadas em potências de 10;
tem-se:
60 segundos equivalem a 1 minuto
60 minutos equivalem a 1 hora
24 horas equivalem a 1 dia
A ISO propôs uma nova seqüência de
dígitos para indicar datas. A nova seqüência
sugerida é do tipo YMD (ano, mês e dia). Por
exemplo 27 de maio de 1943 deve ser escrito
como 1943-05-27. Este formato mostra a
seqüência lógica em que os dados devem ser
cronologicamente armazenados.
O tempo do dia também pode ser expresso
em quatro dígitos, baseados nas 24 horas do
dia. Por exemplo, 12:34 (doze horas e trinta e
quatro minutos). A hora do dia pode ser
expressa em base de 24 horas por dia ou em
12 horas antes do meio dia e 12 horas depois
do meio dia. É o sistema americano AM (anti
meridien) e PM (pos meridien).
Realização
Diversos laboratórios credenciados
possuem aparelhos para produzir oscilações
elétricas com a freqüência de vibração do
átomo de Ce-133. Os padrões de tempo de
césio são disponíveis comercialmente, com
incertezas da ordem de 10-13 e 10-14.
Os sinais horários difundidos por ondas de
rádio são dados na escala do Tempo Universal
Coordenado (UTC), cujo emprego foi
recomendado pela 15a CGPM (1975). O UTC
difere do Tempo Atômico Internacional (TAI) de
um número inteiro de segundos. A diferença
UTC-TAI foi fixada em -10 s no dia 1o janeiro
de 1972 e tornou-se igual a -22 s em 1o de
janeiro de 1985. Periodicamente há correções
no UTC, preferivelmente em fim de dezembro
ou de junho (solstícios) ou fim de março ou de
setembro (equinócios), de modo que o UTC
permaneça próximo do tempo definido pela
rotação da Terra com aproximação menor que
0,9 s. Os tempos legais dos países estão
defasados de um número inteiro de horas
(fusos horários) de acordo com o UTC e a
cidade de Greenwich (Inglaterra) é a hora de
referência.
A exatidão da medição do tempo pode
requerer correções da relatividade,
principalmente quando os relógios de
comparação estão distantes.
O TAI é definido como a escala de tempo
coordenada estabelecida por um sinal de
referência geocêntrica como a unidade da
escala de segundo do SI, tal que ela seja
realizada pelo geoide em rotação. Para os
relógios fixos em relação à Terra e ao nível do
mar, o segundo do TAI é igual ao segundo
realizado localmente. A 2000 m de altitude ele
se mostra mais longo (+2,2 x 10-13 s).
Padrões
Na indústria, são usados contadores
eletrônicos, que são instrumentos multitarefa
baseados em circuitos digitais para medir
tempo e outras quantidades correlatas, como
freqüência, totalização, período, relação de
períodos, intervalo de tempo e média. O
componentes usados nestes instrumentos
incluem um relógio interno, portas lógicas,
comparadores, escalonadores e contadores.
O relógio interno, que fornece a base de
tempo para o contador eletrônico digital, é o
sensor de tempo. O relógio é um oscilador a
cristal que gera um trem de pulsos. O circuito
oscilador incorpora um cristal piezoelétrico
(quartzo) para dar estabilidade ao circuito. O
oscilador é acionado na freqüência natural do
cristal e a realimentação do cristal mantém a
freqüência do oscilador igual à freqüência
natural durante longos períodos de tempo. A
estabilidade a longo prazo da freqüência varia
em função da qualidade do oscilador, de uma
parte em 105 a uma parte em 108. A
estabilidade a curto prazo, medida em horas, é
de uma parte em 109 . Pequenas variações de
freqüência ocorrem devidas ao envelhecimento
do cristal e são da ordem de 1 a 10 ppm (parte
por milhão) por ano.
Um contador eletrônico comercial típico, de
uso geral, de preço moderado tem uma
resposta de freqüência de 10 MHz e possui
display de 8 dígitos.
Na indústria, se usa também o UTC através
dos serviços telefônicos de Hora Certa (ramal
130) das concessionárias.
Fig. 3.11. Ampulheta para medir tempo
57
Quantidades Medidas
2.4. Temperatura
Conceito
A temperatura é uma quantidade
fundamental, conceitualmente diferente na
natureza do comprimento, tempo e massa.
Quando dois corpos de mesmo comprimento
são combinados, tem-se o comprimento total
igual ao dobro do original. O mesmo vale para
dois intervalos de tempo ou para duas massas.
Assim, os padrões de massa, comprimento e
tempo podem ser indefinidamente divididos e
multiplicados para gerar tamanhos arbitrários.
O comprimento, massa e tempo são grandezas
extensivas. A temperatura é uma grandeza
intensiva. A combinação de dois corpos à
mesma temperatura resulta exatamente na
mesma temperatura.
A maioria das grandezas mecânicas, como
massa, comprimento, volume e peso, pode ser
medida diretamente. A temperatura é uma
propriedade da energia e a energia não pode
ser medida diretamente. A temperatura pode
ser medida através dos efeitos da energia
calorífica em um corpo. Infelizmente estes
efeitos são diferentes nos diferentes materiais.
Por exemplo, a expansão termal dos materiais
depende do tipo do material. Porém, é possível
obter a mesma temperatura de dois materiais
diferentes, se eles forem calibrados. Esta
calibração consiste em se tomar dois materiais
diferentes e aquecê-los a uma determinada
temperatura, que possa ser repetida. Coloca-se
uma marca em algum material de referência
que não tenha se expandido ou contraído.
Depois, aqueça os materiais em outra
temperatura determinada e repetível e coloque
uma nova marca, como antes. Agora, se iguais
divisões são feitas entre estes dois pontos, a
leitura da temperatura determinada ao longo da
região calibrada deve ser igual, mesmo se as
divisões reais nos comprimentos dos materiais
sejam diferentes.
Um aspecto interessante da medição de
temperatura é que a calibração é consistente
através de diferentes tipos de fenômenos
físicos. Assim, uma vez se tenha calibrado dois
ou mais pontos determinados para
temperaturas específicas, os vários fenômenos
físicos de expansão, resistência elétrica, força
eletromotriz e outras propriedades físicas
termais, irá dar a mesma leitura da
temperatura.
Fig. 3.12. Conceito de frio e quente
relacionado com a temperatura
A lei zero da termodinâmica estabelece que
dois corpos tendo a mesma temperatura
devem estar em equilíbrio termal. Quando há
comunicação termal entre eles, não há troca de
coordenadas termodinâmicas entre eles. A
mesma lei ainda estabelece que dois corpos
em equilíbrio termal com um terceiro corpo,
estão em equilíbrio termal entre si. Por
definição, os três corpos estão à mesma
temperatura. Assim, pode-se construir um meio
reprodutível de estabelecer uma faixa de
temperaturas, onde temperaturas
desconhecidas de outros corpos podem ser
comparadas com o padrão, colocando-se
qualquer tipo de termômetro sucessivamente
no padrão e nas temperaturas desconhecidas e
permitindo a ocorrência do equilíbrio em cada
caso. Isto é, o termômetro é calibrado contra
um padrão e depois pode ser usado para ler
temperaturas desconhecidas. Não se quer
dizer que todas estas técnicas de medição de
temperatura sejam lineares mas que
conhecidas as variações, elas podem ser
consideradas e calibradas.
Escolhendo-se os meios de definir a escala
padrão de temperatura, pode-se empregar
qualquer uma das muitas propriedades físicas
dos materiais que variam de modo reprodutível
com a temperatura. Por exemplo, o
comprimento de uma barra metálica, a
resistência elétrica de um fio fino, a
milivoltagem gerada por uma junção com dois
materiais distintos, a temperatura de fusão do
sólido e de vaporização do liquido.
Escalas
Para definir numericamente uma escala de
temperatura, deve-se escolher uma
temperatura de referência e estabelecer uma
regra para definir a diferença entre a referência
e outras temperaturas. As medições de massa,
comprimento e tempo não requerem
58
Quantidades Medidas
concordância universal de um ponto de
referência em que cada quantidade é assumida
ter um valor numérico particular. Cada
milímetro em um metro, por exemplo, é o
mesmo que qualquer outro milímetro. Escalas
de temperatura baseadas em pontos notáveis
de propriedades de substâncias dependem da
substância escolhida. Ou seja, a dilatação
termal do cobre é diferente da dilatação da
prata. A dependência da resistência elétrica
com a temperatura do cobre é diferente da
prata.
Assim, é desejável que a escala de
temperatura seja independente de qualquer
substância. A escala termodinâmica proposta
pelo barão Kelvin, em 1848, fornece uma base
teórica para a escala de temperatura
independente de qualquer propriedade de
material e se baseia no ciclo de Carnot.
Escala Prática Internacional de Temperatura
O estabelecimento ou fixação de pontos
para as escalas de temperatura é feito para
que qualquer pessoa, em qualquer lugar ou
tempo possa replicar uma temperatura
específica para criar ou verificar um
termômetro. Os pontos específicos de
temperatura se tornam efetivamente nos
protótipos internacionais de calor. A
Conferência Geral de Pesos e Medidas aceitou
esta EPIT, em 1948, emendou-a em 1960, e
estabeleceu uma nova em 1968 (com 13
pontos) e em 1990 (com 17 pontos).
oC
(K)
oF (oR)
100
212
escala
100
0
180
32
0
O
o
C = ( F - 32)/1,8
F=1,8C+32
sensor
Fig. 3.13 - A unidade SI da temperatura termodinâmica
é o kelvin, K, que é definido como a 1/273,16 da
temperatura termodinâmica do ponto tríplice da água .
A Escala Prática Internacional de
Temperatura (EPIT) foi estabelecida para ficar
de conformidade, de modo aproximado e
prático, com a escala termodinâmica. No ponto
tríplice da água, as duas escalas coincidem
exatamente, por definição. A EPIT é baseada
em pontos fixos, que cobrem a faixa de
temperatura de -270,15 a 1084,62 oC. Muitos
destes pontos correspondem ao estado de
equilíbrio durante a transformação de fase de
determinado material. Os pontos fixos
associados com o ponto de solidificação ou
fusão dos material são determinados à pressão
de uma atmosfera padrão (101,325 Pa)
Além destes pontos de referência primários,
foram estabelecidos outros pontos secundários
de referência, que são mais facilmente obtidos
e usados, pois requerem menos equipamentos.
Porém, alguns pontos secundários da EPIT
1968 se tornaram primários na EPIT 1990.
Há dois motivos para se ter tantos pontos
para fixar uma escala de temperatura:
1. poucos materiais afetados pelo calor
mudam o comprimento linearmente ou
uniformemente. Tendo-se vários pontos, a
escala pode ser calibrada em faixas
estreitas, onde os efeitos não linearidade
podem ser desprezados.
2. nenhum termômetro pode ler todas as
temperaturas. Muitos pontos fixos permite
um sistema robusto de calibração.
Tab. 3.3 - Pontos Fixos da Escala Prática
Internacional de Temperatura (1990)
Ponto Material
Estado
Temperatura
1
He
Vapor
-270,15 a -268,15
2
e-H2a
-259,346 7
Ponto triplob
3
e-H2
Vapor
~-256,16
4
e-H2
Vapor
~-252,85
5
Ne
Ponto triplo -248,593 9
6
O2
Ponto triplo -218,791 6
7
Ar
Ponto triplo -189,344 2
8
Hg
Ponto triplo
-38,834 4
9
H20
Ponto triplo
0,01
10
Ga
Fusão
27,764 6
11
In
Fusão
156,598 5
12
Sn
Fusão
231,928
13
Zn
Fusão
419,527
14
Al
Fusão
660,323
15
Ag
Fusão
961,78
16
Au
Fusão
1064,18
17
Cu
Fusão
1084,62
Notas:
a
- eH2 hidrogênio em concentração de
equilíbrio das formas ortomolecular e
paramolecular,
b
- Ponto triplo: temperatura em que as fases
sólida, líquida e gasosa estão em equilíbrio.
59
Quantidades Medidas
Entre os pontos fixos selecionados, a
temperatura é definida pela resposta de
sensores específicos com equações
experimentais para fornecer a interpolação da
temperatura. Várias definições diferentes são
fornecidas, na EPIT de 1990 para temperaturas
muito baixas, próximas do zero absoluto.
Nestas temperaturas, usa-se um termômetro
de gás He para medir a pressão e a
temperatura é inferida desta pressão. Na faixa
de 13,8033 K e 961,78 oC a temperatura é
definida por um termômetro de resistência de
platina, que é calibrado em conjuntos
específicos de pontos fixos com equações de
interpolação cuidadosamente definidas.
Acima de 1064,18 oC, a temperatura é
definida por pirômetro óptico de radiação, onde
a lei de Planck relaciona esta radiação com a
temperatura.
A EPIT é continuamente revista e uma nova
versão pode estender a faixa para o extremo
inferior de 0,5 K, substituindo o instrumento de
interpolação a termopar com uma resistência
de platina especial e atribuir valores com
proximidade termodinâmica para os pontos
fixos. Atualmente o mínimo valor definido na
EPIT é 13,81 K.
Fig.3.14. Calibrador de temperatura
A calibração de um dado instrumento
medidor de temperatura é geralmente feita
submetendo-o a algum ponto fixo estabelecido
ou comparando suas leituras com outros
padrões secundários mais precisos, que
tenham sido rastreados com padrões primários.
A calibração com outro instrumento padrão é
feita através do seguinte procedimento:
1.
colocam-se os sensores dos dois
instrumentos em contato íntimo,
ambos em um banho de
temperatura,
2.
varia a temperatura do banho na
faixa desejada,
3.
permite que haja equilíbrio em cada
ponto e
4.
determinam-se as correções
necessárias.
Termômetros com sensores de resistência
de platina e termopares geralmente são usados
como padrões secundários.
Unidades
A 9a CGPM (1948) escolheu o ponto tríplice
da água como ponto fixo de referência, em
lugar do ponto de gelo usado anteriormente,
atribuindo-lhe a temperatura termodinâmica de
273,16 K. Foi escolhido o grau kelvin
(posteriormente passaria para kelvin) como
unidade base SI de temperatura e se permitiu o
uso do grau Celsius (oC), escolhido entre as
opções de grau centígrado, grau centesimal e
grau Celsius para expressar intervalos e
diferenças de temperatura e também para
indicar temperaturas em uso prático.
Em 1960, houve pequenas alterações na
escala Celsius, quando foram estabelecidos
dois novos pontos de referência: zero absoluto
e ponto tríplice da água substituindo os pontos
de congelamento e ebulição da água.
A 13a CGPM (1967) adotou o kelvin no
lugar do grau kelvin e decidiu que o kelvin
fosse usado para expressar intervalo e
diferença de temperaturas.
Atualmente, kelvin é a unidade SI base da
temperatura termodinâmica e o seu símbolo é
K. O correto é falar simplesmente kelvin e não,
grau kelvin. O kelvin é a fração de 1/273,16 da
temperatura termodinâmica do ponto tríplice da
água.
Na prática, usa-se o grau Celsius e o kelvin
é limitado ao uso científico ou a cálculos que
envolvam a temperatura absoluta. Um grau
Celsius é igual a um kelvin, porem as escalas
estão defasadas de 273,15. A temperatura
Celsius (Tc) está relacionada com a
temperatura kelvin (Tk) pela equação:
Tc = Tk - 273,15
A constante numérica na equação (273,15)
representa o ponto tríplice da água 273,16
menos 0,01. O ponto de 0 oC tem um desvio
de 0,01 da escala Kelvin, ou seja, o ponto
tríplice da água ocorre a 0,01 oC ou a 0,00 K.
Os intervalos de temperatura das duas
escalas são iguais, isto é, 1 oC é exatamente
igual a 1 K.
O símbolo do grau Celsius é oC. A letra
maiúscula do grau Celsius é, às vezes,
questionada como uma violação da lei de estilo
para unidades com nomes de pessoas. A
60
Quantidades Medidas
justificativa para usar letra maiúscula é que a
unidade é o grau e Celsius (C) é o modificador.
A temperatura pode ser realizada através do
uso de células de ponto tríplice da água, com
precisão de 1 parte em 104. Medições práticas
tem precisão de 2 partes em 103. A escala e os
pontos fixos são definidos em convenções
internacionais que ocorrem periodicamente.
Fig. 3.15. Pirômetro de radiação
Medição da Temperatura
A medição pode ser medida por sensores
mecânicos e elétricos. Os principais sensores
mecânicos são o bimetal e o sistema de
enchimento termal. Os principais sensores
elétricos são o termopar e o detector de
temperatura e resistência (RTD).
O sensor bimetal funciona baseando-se na
dilatação diferente para metais diferentes. A
variação da temperatura medida causa
variação no comprimento e no formato da barra
bimetal, que pode ser usada para posicionar o
ponteiro na escala de indicação de
temperatura.
O sistema de enchimento termal é formado
por um bulbo sensível, um sensor de pressão,
um tubo capilar de interligação e um fluido de
enchimento. O fluido pode ser gás (tipicamente
nitrogênio), fluido não volátil (glicerina ou óleo
de silicone) ou um fluido volátil (éter etílico). A
temperatura é medida através da variação da
pressão do gás ou da pressão de dilatação do
fluido não volátil ou da pressão de vapor do
fluido volátil.
A medição de temperatura por termopar se
baseia na militensão gerada pela diferença de
temperatura entre as duas junções de dois
metais diferentes.
A medição de temperatura por resistência
elétrica se baseia na variação da resistência
elétrica de metais ou termistores depender da
variação da temperatura medida.
Calibração do termômetro
Geral
A calibração de um termômetro envolve a
determinação de sua indicação de temperatura
em um número de temperaturas conhecidas.
Estas temperaturas podem ser conhecidas
1. pelo estabelecimento de uma condição
altamente reprodutível, como os pontos de
mudança de estados de substancias puras
(ponto de fusão ou solidificação, ponto de
ebulição ou liquefação, ponto triplo)
2. pelo fornecimento de um ambiente isolado
termicamente, cuja temperatura é medida
precisamente por um termômetro padrão.
Para se ter calibrações exatas, a condição
de referência de temperatura deve ser mantida
constante, dentro dos limites de precisão,
durante períodos longos de tempo comparados
com as constantes de tempo dos termômetros.
A interpolação entra na calibração de dois
modos:
1. a escala de temperatura (IPTS-90) é
definida em 11 pontos de referência
primários e 27 secundários. Apenas 15
destes pontos caem entre 0 e 1000 oC.
Não é prático reproduzir mais do que umas
poucas destas condições definidas na
calibração prática de um termômetro, de
modo que deve-se usar a interpolação para
determinar a temperatura de outros
condições.
2. usando condições de ponto fixo ou um
termômetro de referência padrão, a
calibração pode ser praticamente feita
somente em um número limitado de
temperaturas dentro da faixa de aplicação
do termômetro a ser calibrado. Uma
interpolação da calibração do termômetro
entre os pontos de calibração deve ser feita
para fornecer uma tabela de calibração de
trabalho.
Termômetro com resistência de platina
padrão é empregado para fornecer
temperaturas de referência entre os pontos
fixos de 0 e 650 oC na IPTS-91.O termômetro
pode ser usado para medir a temperatura de
banhos de temperatura com precisão de ±0,01
o
C.
A precisão de instrumentos de interpolação
e das calibrações de termômetros resultantes
diminui na proporção que se afasta dos pontos
fixos definidos ou pontos de calibração e a
situação piora mais ainda quando se extrapola
para pontos fora da faixa de temperatura
(abaixo do mínimo e acima do máximo). A
calibração de termômetros deve sempre incluir,
no mínimo, um ponto abaixo e um acima dos
limites da faixa de temperatura.
61
Quantidades Medidas
Aplicando temperaturas de calibração muito
acima de sua faixa máxima pode diminuir a
exatidão resultante do termômetro e até
mesmo danificar o sensor.
Pontos fixos de calibração
As calibrações dos termômetros podem ser
feitas em vários pontos fixos de temperatura
que são realizáveis praticamente em um
laboratório. Os principais pontos são:
1. Ponto de gelo = 273,15 K ou 0 oC, que
pode ser realizada com exatidão
reprodutível de 0,05 oC .
2. Ponto de triplo d'água = 273,16 K ou
0,01 oC, que pode ser realizada com
exatidão reprodutível de 0,01 oC,
usando equipamento disponível
comercialmente .
3. Ponto de ebulição d'água = 373,15 K ou
100,0 oC, que pode ser realizada com
exatidão reprodutível de 0,1 oC, @
pressão atmosférica de 760 mm Hg. A
variação de 1 mm Hg causa uma
variação de temperatura de 0,0037 oC.
4. Ponto de fusão do chumbo = 505,1181
K ou 321,9681 oC, que pode ser
realizada com exatidão reprodutível de
0,05 oC , usando banhos comerciais
com tempos de repouso de, no mínimo,
10 minutos.
5. Ponto de fusão do zinco = 692,73 K ou
419,58 oC, que pode ser realizada com
exatidão reprodutível de 0,05 oC ,
6. Ponto de fusão do alumínio = 933,52 K
ou 660,37
0,1oC, que pode ser
realizada com exatidão reprodutível de
0,1 oC.
Outros pontos de fusão são definidos pela
IPTS 90 como temperaturas primarias ou
secundarias e podem ser usados para
calibração de sensor até o ponto do ouro,
1227,58 K ou 1064,43 oC, porém, eles são
difíceis de implementar, na prática.
Ambientes de temperatura controlados ou
variáveis comumente usados na calibração de
termômetros são banhos agitados de água,
óleo, mistura de sais, câmara fluidizada de
sólidos granulares e blocos metálicos
equalizados em fornalhas aquecidas
eletricamente. Quando se usa ambientes
isotermais, é necessário se ter um termômetro
padrão para determinar a temperatura de
calibração verdadeira.
Tradicionalmente, o sensor padrão usado é
o de platina padrão, com invólucro de quartzo
ou pyrex ou termopar tipo S (Pt – 10% RH/90%
Pt).
Para fazer a calibração,
1. define-se a faixa calibração do
termômetro
2. seleciona-se o número de pontos fixos
ou um banho de temperatura com
termômetro padrão
3. obtém-se um conjunto de pares de
temperatura (indicada pelo instrumento
e pelo padrão)
4. faz-se uma curva ou uma função
matemática que descreva a relação
indicação x temperatura
5. aplica-se algum método de encaixe de
pontos, para avaliar as incertezas
envolvidas
produz-se uma tabela de calibração para o
termômetro particular.
Calibração de Termômetros
A calibração de qualquer termômetro requer
um meio cuja temperatura seja conhecida com
precisão. Uma escolha óbvia seria usar o meio
em que a temperatura seja conhecida através
de leis da natureza. Por exemplo, o ponto triplo
da água, o ponto de fusão do zinco e outros
pontos de mudança de estado de substâncias
puras. Como estes meios requerem um esforço
complicado para sua produção e manutenção,
eles são usados principalmente para a
calibração de termômetros padrão. Para os
termômetros industriais, usa-se um método
mais rápido, simples e prático, envolvendo um
meio simples como banho de gelo ou um
banho de óleo cuja temperatura seja medida
com um termômetro padrão de precisão. A
precisão ou o termômetro padrão é chamado
de termômetro de referência.
A indicação de um termômetro sob
calibração é comparada com a do termômetro
de referência em vários pontos diferentes de
temperatura cobrindo toda a faixa desejada.
Este método é chamado de calibração por
comparação, diferente da calibração em pontos
fixos que envolve o uso dos pontos notáveis de
mudança de estado. Um arranjo típico para a
calibração de comparação de temperatura
envolve um banho de calibração (banho de
gelo ou de óleo), um termômetro de referência
e um meio para medir a leitura dos
termômetros de referência e sob calibração.
A precisão de uma calibração por
comparação é determinada pela precisão dos
equipamentos e pelo procedimento de
calibração. Usam-se vários componentes na
calibração por comparação.
Precisão do termômetro de referência.
Ela depende da precisão inicial do
termômetro de referência e seu desvio. Valores
típicos para a precisão inicial de um
termômetro de referência são 0,001 a 0,1 oC,
dependendo do tipo do termômetro e seu
método de calibração. A melhor precisão seria
62
Quantidades Medidas
conseguida com um termômetro com
resistência de platina padrão calibrado no
NIST, com a precisão de alguns milésimos de
oC.
Desvio do termômetro de referência.
O desvio possível do termômetro de
referência deve ser considerado para o
estabelecimento da precisão da calibração. Em
caso de um termômetro recentemente
calibrado que é conhecido ser estável de sua
historia passada, o desvio pode ser
desprezado. Caso contrário, o desvio deve ser
incluído no calculo da precisão total. Valores
típicos de desvio são 0,005 a 0,05 oC por ano,
dependendo da qualidade e da manipulação do
termômetro de referência.
Precisão do equipamento de medição.
O equipamento de medição, como pontes,
galvanômetros e multímetros digitais são
usados para medir a saída do termômetro de
referência. O arranjo mais preciso seria um
termômetro com resistência de platina como
referência e um ponto de relação. Neste caso,
a precisão resultante em termos de
temperatura seria equivalente a alguns
milésimos de oC.
Desvio do equipamento de medição.
A não ser que o equipamento de medição
tenha sido calibrado recentemente, deve-se
incluir um valor de desvio à precisão total da
calibração. A faixa equivalente para a
temperatura seria 0,01 a 0,1 oC por ano.
Estes quatro componentes devem ser
considerados para a determinação da precisão
com que se pode medir a temperatura do meio
ou banho de calibração. Deve-se considerar
também a precisão em que se pode medir a
saída do termômetro sendo calibrado, que
depende da precisão inicial e do desvio do
equipamento de medição.
Considerações do Procedimento
Além dos limites de precisão associados
com o termômetro de referência e o
equipamento de medição, deve-se considerar o
procedimento. Os componentes envolvidos
aqui incluem a estabilidade e uniformidade do
banho. A uniformidade do banho deve ser
expressa em termos da máxima diferença de
temperatura devida à distribuição espacial da
temperatura que pode existir entre a
temperatura do termômetro de referência e o
termômetro sendo calibrado.
Um bloco equalizador feito de alumínio ou
cobre ajuda a se manter o erro de uniformidade
o mínimo possível e pode melhorar a
estabilidade. O erro devido a instabilidade do
banho pode também ser reduzido fazendo-se
medições múltiplas dos dois termômetros e
fazendo-se a media das medições. A
contribuição da estabilidade do banho para a
precisão da calibração pode ser expressa em
termos do desvio padrão das medições. O
impacto negativo da uniformidade e
estabilidade do banho na precisão final da
calibração pode ser ainda minimizada fazendose o seguinte:
1. fazer a medição uma ou duas horas
depois que a temperatura do banho tenha sido
estabilizada em um dado ponto de calibração.
Isto reduz o erro de uniformidade do banho.
2. fazer medições simultâneas da saída do
termômetro de referência e do termômetro
sendo calibrado. Isto minimiza o erro de
estabilidade.
As medições anteriores podem ser
realizadas em um arranjo controlado por
computador. Para máxima precisão e
eficiência, o computador pode ser programado
para
1. monitorar e controlar o banho,
2. monitorar a estabilidade do banho,
3. fazer medidores e
4. processar os dados de calibração.
O sistema pode incluir uma unidade de
chaveamento para permitir a varredura de
vários termômetros calibrados
simultaneamente.
O computador pode estabelecer a
temperatura do banho para um ponto de
calibração desejado, monitorar a temperatura
até que ela fique estável de acordo critérios
predeterminados de estabilidade, fazer as
medições, coletar os dados e processar os
dados para fornecer a carta de calibração do
termômetro. Com tal arranjo, os erros de
estabilidade e uniformidade pode ser
minimizados.
Agora, deve-se estimar a melhor precisão
que pode ser obtida em um ponto de
calibração. Tipicamente, tem-se incertezas
entre 0,04 a 0,55 oC em um ponto de
calibração. Isto estabelece a faixa para a
precisão que pode ser obtida em um dado
ponto de calibração dentro de uma faixa
moderada de temperatura. Os termômetros
devem ser calibrados em mais de um ponto.
Os pontos adicionais de calibração elevam os
erros acima dos limites de 0,04 e 0,55 oC.
Os fatores adicionais que introduzem erros
na calibração incluem o auto-aquecimento em
RTDs, erros de imersão durante a calibração
em RTDs e termômetros, erros de resistência
de isolação, erros associados com redução de
dados de calibração. Estas considerações
indicam que a melhor precisão conseguida
para um termômetro industrial não pode ser
melhor do que 0,1 oC, mesmo para um sensor
63
Quantidades Medidas
novo que tenha sido calibrado recentemente.
Uma vez que o termômetro é instalado no
processo, a precisão pode começar a se
deteriorar quando o sensor envelhece. A taxa
desta deterioração depende da qualidade do
termômetro, sua instalação, condições de
processo e outros fatores.
As limitações de como um termômetro
industrial pode ser bem calibrado e manter sua
calibração indicam que a faixa de ±0,1 a ±1,0
oC é a melhor precisão que se pode conseguir
com um termômetro industrial usado em faixa
moderada de temperatura em uma instalação
típica industrial. obviamente, o termômetro
pode indicar a temperatura verdadeira do
processo mas o usuário não pode estar certo
de que se está medindo a temperatura melhor
do que ±0,1 a ±1,0 oC. O afastamento da
temperatura medida do valor verdadeiro
depende de vários fatores:
1. tipo do termômetro sendo usado,
2. faixa de temperatura sendo medida,
3. condições do processo e do ambiente
onde o termômetro está exposto.
Geralmente, RTDs oferecem melhor
precisão do que os termopares. Também, em
faixas moderadas de temperatura, uma melhor
precisão é conseguida no inicio da faixa do que
na extremidade superior da faixa. Por exemplo,
é muito mais simples medir com precisão a
temperatura ambiente da sala do que a
temperatura de 300 oC no processo industrial.
Termômetros de vidro
Mesmo um termômetro de haste de vidro
deve ser calibrado periodicamente, onde se
inspecionam visualmente e verificam as
dimensões, permanência do pigmento,
estabilidade do bulbo e precisão da escala.
Depois da calibração, podem ser feitas
correções, aplicados fatores de correção ou o
termômetro pode ser descartado.
Para maiores detalhes, deve se consultar a
norma ASTM E 77 – 92: Standard Test Method
for Inspeciton and Verification of
Thermometers. Várias normas ASTM cobrem
os termômetros clínicos.
Termômetros a bimetal
O termômetro a bimetal possui todos os
componentes de medição – sensor,
condicionador e indicador – em um único
invólucro. O sensor a bimetal integral ao
instrumento não pode ser calibrado
isoladamente mas somente pode ser
inspecionado visualmente, para verificar
corrosão ou danos físicos evidentes.
O que se faz é calibrar o sistema de
indicação, colocando-se o termômetro em um
banho de temperatura e comparando as
indicações do termômetro com as indicações
de um termômetro padrão colocado junto. O
termômetro a bimetal pode ser calibrado e, se
necessário, ajustado nos pontos de zero e de
largura de faixa.
Termopares
Os termopares transformam calor em
eletricidade. As duas extremidades de dois fios
de metais diferentes, como ferro e
constantant®, são trançadas juntas para formar
duas junções: uma de medição e outra de
referência. Um voltímetro ligado em serie irá
mostrar uma voltagem termelétrica gerada pelo
calor. Esta voltagem é função da
1. diferença de temperatura entre a junção
de medição e a junção de referência.
2. tipo do termopar usado
3. homogeneidade dos metais
O mesmo resultado é obtido se as
extremidades de referência de dois fios são
ligadas diretamente aos terminais do
voltímetro; estes terminais formam agora a
junção de referência.
Como a homogeneidade dos fios
componentes do termopar pode se modificar, o
termopar e os fios de extensão de termopar
devem ser periodicamente calibrados. A
calibração consiste em verificar se as suas
características se afastaram dentro da
tolerância (termopar bom) ou além da
tolerância (termopar deve ser descartado).
As técnicas de calibração do termopar tem
sido melhoradas constantemente em
velocidade e confiabilidade, por causa do uso
do microprocessador. A técnica antiga consistia
em ligar o instrumento receptor do termopar
aos terminais de um potenciômetro portátil de
militensão, medir a temperatura destes
terminais com um termômetro padrão, ajustar a
saída do potenciômetro para dar a indicação
teórica no receptor e anotar o ajuste do
potenciômetro. Finalmente, se procurava a
temperatura correspondente em tabelas
padrão. Este processo consumia muito tempo e
era susceptível a erros potenciais.
A medição de temperatura nos terminais é
necessária porque um termopar contem
inerentemente duas junções de metais
diferentes e não apenas uma. A saída de
voltagem deste sistema de termopar é afetada
pelas temperaturas de ambas as junções. A
medição da temperatura da junção de medição,
deste modo, requer o conhecimento da
temperatura da junção de referência. Em
muitos instrumentos, a junção de referência
ocorre nos terminais de ligação neste
instrumento receptor.
64
Quantidades Medidas
Tab. 3. 5. Incertezas de calibração em termopares calibrados pelo método de comparação A
Tipo
E
J
K
ReS
B
T
Faixa, oC
Pontos de calibração
0 a 870C
0 a 870C
0 a 350D
-160 a 0D
0 a 760C
0 a 350D
0 a 1250C
0 a 1250C
0 a 350D
-160 a 0D
0 a 1450C
0 a 1450C
0 a 1700C
0 a 1700C
0 a 370D
0 a 100D
-160 a 0D
cada 100
300, 600 e 870
cada 100
cada 50
100, 300, 500 e 750
cada 100
cada 100
300, 600, 900 e 1200
cada 100
cada 50
cada 100
600 e 1200
cada 100
600 e 1200
cada 100
50 e 100
cada 60
Incerteza
Pontos observados Valores interpolados
0,5
1
0,5
2
0,1
0,5
0,1
0,5
0,5
1
0,1
0,5
0,5
1
0,5
2
0,1
0,5
0,1
0,5
0,3
0,5 a 1100 e 2 a 1450
0,3
1 a 1100 e 3 a 1450
0,3
0,5 a 1100 e 3 a 1700
0,3
1 a 1100 e 5 a 1700
0,1
0,2
0,05
0,1
0,1
0,2
A
Valores foram extraídos da Circular 590 do National Bureau of Standards (hoje NIST)
Em fornos tubulares, por comparação com um termopar tipo S calibrado
D
Em banhos líquidos agitados, por comparação com um RTD de platina calibrado
C
O microprocessador simplificou muito a
calibração do termopar. Sua memória pode
conter as curvas de temperatura (voltagem x
temperatura) para os diferentes termopares.
Estas curvas são geradas usando-se equações
publicadas pelo National Institute of Standards
and Technology. Um instrumento a
microprocessador também faz a medição da
temperatura da junção de referência,
incorporando-a em um resultado compensado
corretamente. Quando a calibração do
instrumento baseado em microprocessador
recebe uma voltagem, ele imediatamente
translada para a unidade de temperatura (oC),
de acordo com tabelas contidas na sua
memória e indica digitalmente estes valores.
Para calibrar instrumentos com termopar, a
técnica básica é fornecer um sinal conhecido
para o instrumento receptor para garantir que
ele está dando uma indicação precisa e exata.
O calibrador fornece este sinal de uma fonte
estável e monitora, ao mesmo tempo, o sinal
com o sistema de medição do próprio
calibrador. A curva temperatura vs voltagem
armazenada no sistema do microprocessador
do calibrador é o ponto de referência para
gerar uma saída correta. Assim, o calibrador
simula o termopar, gerando uma tensão
correspondente à temperatura e indicando
temperatura (e não tensão).
Além de calibrar e ajustar o instrumento
receptor (registrador, indicador, controlador),
deve-se calibrar o sensor em si. O sensor pode
ser substituído por um sensor novo calibrado
ou pode ser removido e calibrado em um
laboratório de temperatura. Ele também pode
ser calibrado no local se um sensor padrão de
referência puder ser instalado temporariamente
próximo do termopar de trabalho. Este caso
nem sempre é possível, mas quando possível,
ele deve ser preferido. Sua vantagem é que o
sensor instalado é aferido em sua condição
real de operação. Um calibrador tendo dois
canais de entrada torna este método prático.
Vantagens da Calibração Inteligente
Os calibradores a microprocessador
melhoram muito a precisão. Sem esta ajuda, o
técnico começa com algum erro pelo fato de
usar um termômetro separado na junção de
referência que não está colocado na junção de
referência. A conversão manual de tabelas
pode levar a erros humanos de operação.
65
Quantidades Medidas
Usando a técnica de microprocessador,
consegue-se precisão de até 0,02%.
Os calibradores digitais podem ter outras
funções, oferecendo uma faixa de
características para medir todos os tipos de
termopares e fontes de militensões e para
calibrar registradores, indicadores,
controladores e outros tipos de circuitos
potenciométricos e pirométricos. Os
calibradores são portáteis e leves, com baterias
recarregáveis e autocontidas.
Os instrumentos a microprocessador podem
medir e simular os sete tipos de termopares
definidos pela ISA e outros padrões
internacionais e adaptados para a maioria das
aplicações. Cada termopar tem suas próprias
ligas metálicas, faixas de temperatura e
códigos de cores. Estes termopares são do
tipo: B, E, J, K, R, S e T. Um oitavo tipo, N, foi
definido e está sendo padronizado. As curvas
destes termopares, disponíveis na literatura
técnica, mostram tensão (mV) versus
temperatura (oC) e podem ser armazenadas na
memória do calibrador.
A calibração com instrumento a
microprocessador permite a calibração mais
rápida, mais direta e mais precisa.
Há ainda tabelas gerais, tais como:
1. Tolerâncias nos valores iniciais de fem
versus temperatura para termopares
2. Limites superiores sugeridos para
termopares protegidos
3. Coeficientes polinomiais para
termopares gerando fem como função
de temperatura
4. Coeficientes de polinômios inversos
para computação da temperatura
aproximada como função de fem de
termopares
elétrica para tensão elétrica, que é mais fácil de
se manipular.
Fig. 3. 16 - O ampere e sua definição SI
Unidade
O ampere é a unidade SI base de corrente
elétrica e o seu símbolo é A.
Realização da Unidade Base SI
A corrente elétrica pode ser realizada pela
balança de corrente de Ayrton-Jones, com
precisão de 2 partes em 106. A resistência
elétrica pode ser medida com precisão de 5
partes em 108 pelo capacitor calculável de
Thompson-Lampard e o volt pode ser medido
com 3 partes em 108 usando os efeitos
Josephson, que são insatisfatórios.
Padrões
Como a precisão da realização do ampere
pela balança de corrente é muito pobre quando
comparada com a precisão de intercomparação
de células padrão e resistores, e também por
causa da dificuldade de armazenar o valor
realizado do ampere, os Laboratórios
Nacionais de Padrão usam bancos de células
padrão e resistores como padrões primários
mantidos.
2.5. Corrente Elétrica
Conceito
A 9a CGPM (1948) adotou a definição de
ampere, baseando-se em unidades mecânicas
existentes, como a corrente constante que, se
mantida em dois condutores retos paralelos de
comprimento infinito, de seção circular
desprezível e colocados em uma distância de 1
m, no vácuo, produzem entre estes condutores
uma força igual a 2 x 10-7 N por metro de
comprimento.
Outra definição mais prática e realizável
estabelece que 1 ampere é a corrente elétrica
que deposita 1,118 mg de prata em 1 s de uma
solução saturada de óxido de prata.
Atualmente, há pesquisas e estudos no SI
para mudar a unidade padrão elétrica corrente
Fig. 3.17 Instrumento multímetro, portátil,
que mede corrente, tensão, resistência e
freqüência
66
Quantidades Medidas
Fig. 3.18. Instrumento multímetro de oficina
2.6. Quantidade de Matéria
Conceito
O nome desta grandeza é quantidade de
matéria, tendo como base o nome francês
quantité de matière, porém é usado também o
nome quantidade de substancia, por causa da
influencia do inglês amount of substance. Este
nome recorda o latim quantitas materiae,
utilizado para designar a grandeza que hoje se
chama massa. Deve-se esquecer este
significado pois a massa e a quantidade de
matéria são grandezas diferentes.
Mol é a unidade de quantidade de matéria,
criada para os químicos, em 1971. O mol é
definido no SI como a quantidade de matéria
de um sistema que contem um número de
unidades elementares igual ao número de
unidades contidas nos átomos de C-12 em
exatamente 0,012 kilograma. A unidade
elementar deve ser especificada e pode ser
átomo, molécula, íon, elétron ou grupo
específico destas entidades.
Um mol contem a mesma quantidade de
átomos que 0,012 kilograma de carbono C-12.
Anteriormente, o oxigênio (O2-16) era usado
como referência, porem, por desavenças entre
físicos e químicos e por causa da existência de
três isótopos do oxigênio (16, 17 e 18), em
1960 houve um acordo entre eles para se usar
o isótopo 12 do carbono.
A lei de Avogrado estabelece que iguais
volumes de gases ideais, à mesma
temperatura e pressão, contem o mesmo
número de moléculas. O número de moles
pode ser expresso como o número de unidades
elementares dividido pelo número de Avogadro
(6,02 x 1023). A unidade elementar pode ser
átomo, molécula, íon, elétron, fóton ou um
grupo especifico de tais unidades, porém a
entidade usada deve ser especificada.
O mol é numericamente igual à massa
molecular em gramas, erroneamente chamada
de peso molecular. O mol não é uma unidade
de massa mas deve ser considerada como
tendo uma dimensão própria. As vezes se
pensa que a existência da massa tornaria
desnecessária a quantidade de matéria. Há
situações na química e física onde é desejável
basear as medições das propriedades em um
componente fundamental da matéria, como a
molécula e o átomo. As massas expressas em
unidades de kilograma são muito pequenas e
com exatidões inadequadas. Como é bem
estabelecido que o mesmo número de
moléculas e átomos tem a mesma massa e
propriedades, é conveniente definir uma
quantidade base de quantidade de matéria - o
mol.
Para aumentar a precisão das quantidades
envolvidas, o mol é definido indiretamente pela
comparação do número de entidades
relacionadas com as que constituem 0,012 kg
de C-12. Uma contagem direta destes itens em
um mol substitui a referência das medições de
massas, levando a uma precisão maior em
termos de mol.
A massa molecular ou atômica tendo o
kilograma por mol como unidade deve
substituir o peso molecular ou o peso atômico.
A palavra molar colocada depois de uma
quantidade indica que ela se refere à unidade
de quantidade de matéria (mol), ou seja, por
mol de matéria. O termo especifico
corresponde a uma quantidade sendo referida
à unidade de massa (kg). Por exemplo, a
massa molar do metano é 0,016 043 kg/mol e
para o bióxido de carbono é 0,044 010 kg/mol.
Estas duas massas tem exatamente o mesmo
número de moléculas.
Unidades
O mol é a unidade de base SI de
quantidade de matéria e o seu símbolo é mol.
Não se deve dizer que n é o número de moles,
mas que n é a quantidade de matéria.
O volume molar de um gás ideal nas
condições normais de temperatura e pressão
(0 oC e 1 atmosfera) é igual a 22,4 litros.
Volumes iguais de gases contem números
iguais de partículas. Um mol de qualquer gás
contem 6,02 x 1023 moléculas.
67
Quantidades Medidas
2.7. Intensidade Luminosa
2.8. Quantidades Suplementares
As unidades de intensidade luminosa se
baseavam em padrões de chama ou lâmpadas
de filamento incandescente. A 9a CGPM
(1948) substituiu o nome de vela nova por
candela, que correspondia à luminância do
emissor de radiação de Planck (corpo negro) à
temperatura de fusão da platina, por sugestão
da Comissão Internacional de Iluminação.
A 13a CGPM (1967) redefiniu a unidade
candela, como a intensidade de luz incidindo
na direção perpendicular a uma superfície de
1/600 000 metro quadrado de um corpo negro
radiador perfeito, à temperatura de liquefação
da platina (2024 K), à pressão padrão (101 325
pascals).
A 16a CGPM (1979) redefiniu novamente a
candela, por causa da dificuldade prática e
realizar o irradiador de Planck em alta
temperatura e das novas facilidades da
radiometria. Atualmente, a candela é a
intensidade luminosa, numa dada direção de
uma fonte que emite uma radiação
monocromática de freqüência
540 x 1012 Hz e com intensidade energética
nesta direção de 1/683 W/sr.
Candela é a unidade base SI de intensidade
luminosa, com símbolo de cd. (Candela, em
latim significa vela).
A realização da candela é conforme a
definição, o que é difícil e impreciso. A precisão
obtida é de 5 partes em 106. Por exemplo, uma
lâmpada incandescente de 100 watts tem
aproximadamente intensidade luminosa de 135
candelas (135 cd).
Há duas grandezas suplementares:
1. ângulo plano, unidade radiano (rad)
2. ângulo sólido, unidade esterradiano (sr)
Embora estas grandezas tenham sido
apresentadas como suplementares elas são
análogas às grandezas de base.
Ângulo plano e ângulo sólido podem ser
considerados adimensionais, ou seja, suas
unidades podem ser radiano e esterradiano ou
nenhuma dimensão.
Ângulo Plano
O radiano é a unidade de ângulo plano. Um
radiano é o ângulo plano com seu vértice no
centro de um círculo compreendido por um
arco com comprimento igual ao do raio. O
radiano é adimensional. O símbolo do radiano
é rad.
1 radiano é igual a 57,2958o.
O círculo possui 2 π radianos
(aproximadamente 6,2832 rad).
Na prática, usa-se mais o grau que o
radiano para expressar os ângulos planos. O
radiano é mais usado em equações científicas
e de engenharia.
Ângulo Sólido
O esterradiano é a unidade de ângulo
sólido. Um esterradiano é o ângulo sólido com
o vértice no centro de uma esfera
compreendido por uma área de superfície
esférica igual a de um quadrado tendo lados
iguais ao comprimento do raio. O símbolo do
esterradiano é sr.
A esfera possui 4 π esterradianos (12,566
sr).
Fig. 3. 19. Conceito de intensidade luminosa
Fig. 3.20 - Definições SI de radiano e esterradiano.
APOSTILA\METROLOG
4QuantBas.DOC
22 SET 98 (Substitui 01 ABR 98)
68
4. Instrumentos de Medição
Objetivos de Ensino
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
11.
12.
13.
14.
15.
Relacionar as necessidades e aplicações das medições das variáveis, em controle,
monitoração e alarme de processos industriais.
Apresentar as principais funções da medição e controle: detecção da variável,
condicionamento do sinal, apresentação dos dados e atuação no processo.
Mostrar os principais tipos de instrumentos, pelo princípio de funcionamento, atuação,
alimentação, natureza do sinal.
Apresentar o conceito de elemento sensor, terminologia e princípios básicos de
funcionamento.
Apresentar os principais condicionadores de sinal: transmissor, filtro, amplificador,
linearizador, conversor A/D e D/A.
Conceituar e especificar os principais instrumentos de display: indicador, visor, registrador,
contador-totalizador e controlador.
Conceituar as características estáticas e dinâmicas dos instrumentos, como exatidão e
precisão.
Apresentar os parâmetros da precisão, como linearidade, repetitividade, reprodutibilidade,
sensitividade, zona morta, velocidade de resposta e confiabilidade.
Diferenciar as expressões de precisão, em percentagem de fundo de escala e do valor
medido.
Mostrar a filosofia para escolher e especificar a precisão necessária do instrumento.
Conceituar rangeabilidade.
Conceituar erro e apresentar os diferentes tipos e causas de erros, grosseiros, aleatórios e
sistemáticos.
Apresentar os tipos de erros em função do tempo, origem.
Mostrar as fontes do erro sistemático: inerente ao instrumento, influência, modificação e
carga do instrumento.
Apresentar a filosofia para determinação do erro resultante.
69
Instrumentos de Medição
1. Medição
1.1. Metrologia
Metrologia é a ciência das medições. A
palavra metrologia é derivada de duas palavras
gregas: metro que significa medição e logia
que significa ciência. O termo é usado em um
sentido mais restrito para significar a porção da
ciência da medição usada para fornecer,
manter e disseminar um conjunto consistente
de unidades, para fornecer suporte para o
cumprimento de igualdade no comércio por leis
de pesos e medidas ou para fornecer dados
para controlar qualidade em processos.
Uma medição é uma série de manipulações
de objetos ou sistemas físicos de acordo com
um protocolo definido que resulta em um
número. O número é reportado para
representar unicamente a magnitude ou
intensidade de alguma satisfação de que
depende as propriedades do objeto sob teste.
Este número é desenvolvido para formar a
base de uma decisão afetando algum objetivo
humano ou satisfazendo alguma necessidade
humana, a satisfação de que depende das
propriedades do objetivo sob teste.
Estas necessidades podem ser vistas de
modo útil como requerendo três classes gerais
de medição:
1. Técnicas
2. Legais
3. Científicas
Técnicas
Esta classe inclui as medições feitas para
garantir a compatibilidade dimensional,
conformação a especificações de projeto
necessárias para uma função apropriada ou
em geral, todas as medições feitas para
garantir adequação para uso pretendido de
algum objeto.
Legal
Esta classe inclui as medições feitas para
garantir cumprimento da lei ou regulação. Esta
classe se refere a instituições de pesos e
medidas, inspetores e aqueles que devem
fazer cumprir as leis. As medições são
idênticas em espécie às da metrologia técnica
mas são revestidas de uma estrutura mais
formal.
Científica
Esta classe inclui as medições feitas para
validar teorias da natureza do universo ou para
sugerir novas teorias. Estas medições, que
podem ser chamadas de metrologia científica
apresentam problemas especiais.
1.2. Resultado da Medição
Nenhum ramo da ciência ou da técnica, da
indústria ou do comércio pode se organizar
sem a existência de medições que determinem
as dimensões ou características do produto.
O resultado de qualquer medição de uma
grandeza física resulta sempre em três fatores:
1. o valor numérico da grandeza
2. a unidade da grandeza.
3. a incerteza da medição, associada a
uma
4. probabilidade de que o valor medido caia
nos intervalos da incerteza.
A importância da incerteza ou erro da
medição é que ela obscurece a habilidade de
se obter a informação que se quer: o valor
verdadeiro da variável medida. Por causa dos
erros, a exatidão de uma medição nunca é
certa. A estatística mostra que o valor
verdadeiro conseguido em um conjunto de
medições é dado por sua média aritmética e a
incerteza neste valor é:
x = x ± ux
(P%)
onde
x = valor medido
x = média das medições da amostra
ux = incerteza da medição
P = probabilidade que a medição esteja
dentro do intervalo (x - ux) e (x + ux)
O resultado da medição do comprimento de
uma peça pode ser, por exemplo,
(8,0 ± 0,2) m
onde
8,0 é o valor provável do comprimento
0,2 é a incerteza da medição, feita por um
instrumento real e há uma probabilidade de
95% que o valor 8,0 medido esteja entre o
intervalo 7,8 e 8,2 (esta informação deve ser
dada pelo fabricante do instrumento e
informada no catálogo do instrumento que fez a
medição do comprimento)
m é o símbolo da unidade de comprimento
metro.
Afirmar simplesmente que o resultado é 8
não tem nenhum significado, a não ser que se
complete a informação com a unidade metro, a
incerteza 0,2 e a probabilidade associada com
esta incerteza.
Há grandezas sem unidades, como
densidade relativa, índice de refração,
coeficiente de atrito, número de Reynolds.
1.3. Aplicações da Medição
Os principais usos da medição em
processos industriais e operações são:
1. controle
70
Instrumentos de Medição
2. monitoração
3. alarme.
Controle
Controlar uma variável de processo é
mantê-la constante e igual a um valor desejado
ou variando dentro de limites estreitos. Só se
controla uma variável. Não se pode ou não há
interesse em controlar grandeza que seja
constante. O controle é tão bom quanto a
medição da variável controlada.
O controle pode ser obtido manualmente,
quando o operador atua no processo
baseando-se nas medições e indicações de
grandezas do sistema. O controle manual é de
malha aberta e é matematicamente estável.
Há várias técnicas e teorias para se obter o
controle automático de processos industriais. A
técnica básica e a mais usada é através da
malha fechada com realimentação negativa
(feedback), onde
1. se mede a variável controlada na saída
do processo,
2. compara-a com um valor de referência e
3. atua na entrada do processo,
4. de modo a manter a variável controlada
igual ao valor desejado ou variando em
torno deste valor.
O controle automático com realimentação
negativa pode se tornar mais complexo,
envolvendo muitas variáveis de processo
simultaneamente. São casos particulares de
controle a realimentação negativa multivariável:
cascata, faixa dividida (split range) e autoseletor.
Outra técnica alternativa é o controle de
malha fechada preditivo antecipatório
(feedforward). Esta estratégia envolve
1. a medição de todos os distúrbios que
afetam a variável controlada,
2. um modelo matemático do processo sob
controle,
3. a atuação em uma variável manipulada,
4. no momento em que há previsão de
variação na variável controlada e
antecipando-se ao aparecimento do erro.
5. para manter a variável controlada
constante e igual ao valor desejado,
Um caso particular e elementar de controle
preditivo antecipatório é o controle de relação
de vazões.
Monitoração
Monitorar é supervisionar um sistema,
processo ou operação de máquina, para
verificar se ele opera corretamente durante sua
operação. Em instrumentação, é comum usar
instrumentos para medir continuamente ou em
intervalos uma condição que deve ser mantida
dentro de limites predeterminados. São
exemplos clássicos de monitoração:
1. radioatividade em algum ponto de uma
planta nuclear,
2. deslocamento axial ou vibração radial de
eixos de grandes máquinas rotativas,
3. reação química em reatores através da
análise de composição dos seus produtos.
Um sistema de monitoração é diferente de
um sistema de controle automático porque não
há atuação automática no sistema, ou por
incapacidade física de atuação ou por causa
dos grandes atrasos entre as amostragens,
medições e atuações. No sistema de
monitoração, todas as indicações e registros
são avaliados continuamente, analisam-se as
condições do processo e, em caso extremo,
pode-se desligar o sistema, de modo
automático ou manual, quando os limites
críticos de segurança são atingidos.
Alarme
Em sistemas de controle e de monitoração é
comum se ter alarmes. Um sistema de alarme
opera dispositivos de aviso (luminoso, sonoro)
após a ocorrência de uma condição indesejável
ou perigosa no processo. O sistema de alarme
é usado para chamar a atenção do operador
para condições anormais do processo, através
de displays visuais e dispositivos sonoros. Os
displays visuais geralmente piscam lâmpadas
piloto para indicar condições anormais do
processo e são codificados por cores para
distinguir condições de alarme (tipicamente
branca) e de desligamento (tipicamente
vermelha). Diferentes tons audíveis também
podem ser usados para diferenciar condições
de alarme e de desligamento.
Um sistema de alarme possui vários pontos
de alarme que são alimentados por uma única
fonte de alimentação. O anunciador de alarme
apresenta a informação operando em
seqüência. A seqüência descreve a ordem dos
eventos, incluindo as ações das chaves de
alarme, lógica do anunciador, sinal sonoro,
display visual e ação do operador.
Tipicamente, cada seqüência tem quatro
objetivos:
1. alertar o operador para uma condição
anormal,
2. indicar a natureza da condição anormal
(alarme ou desligamento),
3. requerer a ação de conhecimento pelo
operador
4. indicar quando o sistema retorna à
condição normal.
71
Instrumentos de Medição
1.4. Tipos de Medição
Os três tipos principais de medição são:
1. medição direta
2. comparação
3. substituição
Medição direta
Como o nome sugere, esta é a forma mais
simples de medição. Por exemplo, se mede a
voltagem escolhendo um medidor com a faixa
correta de voltagem, ligando-o nos terminais
apropriados e lendo a voltagem diretamente da
posição do ponteiro na escala ou nos dígitos do
display.
Medição comparativa - balanço de nulo
O método comparativo de pesagem deve
ser muito familiar a todos. Usam-se dois pratos
da balança para comparar os pesos da massa
desconhecida e da massa conhecida. Quando
eles forem iguais, não haverá deflexão do
ponteiro. Quando um for maior que o outro,
haverá uma deflexão para algum dos lados da
balança. Tudo se resume a uma questão de se
ter pesos calibrados conhecidos para que se
tenha a pesagem exata de qualquer massa
desconhecida.
Não há necessidade de calibração. Em
cada medição, a quantidade desconhecida é
comparada diretamente com uma quantidade
conhecida.
Fig. 4.2. Medição direta
Fig. 4.3.Medição por comparação
O método direto de pesagem toma uma
balança com mola, com a faixa correta, coloca
nela o peso desconhecido e lê o deslocamento
na escala calibrada.
O método direto de medição baseia no
comportamento de algum sistema físico
(sensor e processador do sinal) para converter
a quantidade medida (sinal de entrada) em
uma quantidade observável (sinal de saída).
Para o voltímetro, o processo físico é a rotação
da bobina móvel quando a corrente passa por
ela. A balança de mola se baseia no
deslocamento causado pela força da gravidade
no peso. Para os dois instrumentos, é
necessária uma calibração inicial da posição do
ponteiro, como uma função da magnitude do
sinal de entrada. Isto é feito somente em uma
posição, tipicamente na deflexão de fundo de
escala e a precisão da leitura em outros
pontos depende da linearidade da resposta do
sistema. A precisão contínua do instrumento
entre as calibrações depende do valor pelo
qual a resposta do sistema pode variar, devido
ao envelhecimento e outros efeitos. A precisão
da medição direta depende fundamentalmente
do sistema físico escolhido como transdutor e
processador do sinal, do número de vezes de
calibração do sistema e da qualidade do
equipamento usado.
Uma situação similar pode ocorrer na
medição elétrica. Pode-se produzir uma
voltagem conhecida e então compará-la com
uma voltagem desconhecida. A comparação
real é feita usando-se um galvanômetro que
detecta se há passagem ou não de corrente
por ele. Quando as tensões forem diferentes,
haverá passagem de corrente em alguns dos
dois sentidos, dependendo do valor relativo das
tensões. Quando elas forem iguais não haverá
corrente pelo galvanômetro. Quando se obtém
a posição zero (nulo), garante-se que as
tensões são exatamente iguais. Este método,
chamado de balanço de nulo, é extremamente
preciso porque ele não se baseia em qualquer
outro sistema físico para se obter o valor da
quantidade sendo medida.
Outro circuito eletrônico baseado em
detector de nulo é a ponte de Wheatstone, que
consiste em 4 resistências, uma fonte de
polarização e um galvanômetro detector de
zero. A ponte de Wheatstone é usada para
medir valores de resistência elétrica e
pequenas tensões.
72
Instrumentos de Medição
R1
E
R2
B
D
A
R3
R4
Fig. 4.4. Ponte de Wheatstone
O sistema de medição é usado apenas para
indicar quando se obtém o balanço do nulo. O
sistema necessita apenas da medição para dar
a leitura do zero; ele não precisa ser calibrado
nem precisa dar uma resposta linear. O
sistema de medição deve ser calibrado
somente quando as leituras forem tomadas
fora do equilíbrio.
Medição por substituição
Como já visto, o método comparativo de
medição é fundamentalmente mais preciso do
que o método correspondente de medição
direta, por que se elimina o sistema de
medição como meio de interpretar o sinal de
entrada sendo medido. Foi visto também que
uma forma limitada de sistema de medição era
usar o registro da posição do balanço do nulo.
Um método mais preciso ainda de medição
elimina qualquer efeito do sistema de medição.
Como exemplo, seja a balança química com
dois pratos, que fica balançada exatamente
quando há a massa de 200 g em cada prato.
Agora, se estes pesos forem removidos e um
peso de apenas 1 g for colocado em cada
prato, haverá ainda um balanço perfeito?
Espera-se que sim. Porém, entre a primeira e a
segunda medições foram removidas 398 g do
sistema e isto afetará as tensões e resistências
presentes nos braços, suportes e ponteiro. É
bem possível que haja uma pequena variação
no comportamento do sistema, dando um erro
na medição da 1 g. Em uma balança mais
precisa deveria haver uma garantia que o peso
total no sistema não variasse, mesmo se forem
medidos pesos de diferentes valores. Isto pode
ser feito pelo método da substituição.
Fig. 4.5. Medição por substituição
Uma balança perfeita é obtida com os pesos
calibrados de 200 g no prato B. Um peso
desconhecido M é colocado no prato A. Para
se consiga um novo balanço, agora é
necessário remover pesos do prato B.
O peso removido de B é igual ao peso
desconhecido colocado no prato A, de modo
que este peso foi medido. Porém, o que é
significativo neste novo sistema é que o peso
total na balança não foi alterado. Tudo que
aconteceu foi a substituição de um peso
desconhecido por um peso conhecido e as
condições do sistema de medição (balança)
não foram alteradas. Assim, a medição por
substituição envolve a recolocação de algo de
valor desconhecido por algo de valor
conhecido, sem alterar as condições de
medição.
Por exemplo, seja a resistência de valor
desconhecido em um circuito. Se ela é
substituída por uma resistência de valor
conhecido, R, de modo que a voltagem e a
corrente no circuito continuem exatamente as
mesmas, então o valor da resistência
desconhecida é também igual a R.
2. Instrumentos da Medição
Os instrumentos podem ser classificados de
acordo com sua aplicação, modo de operação,
método de conversão de energia, natureza do
sinal de saída. Todas estas classificações
usualmente resultam em superposição. Porém,
os instrumentos usados na prática podem ser
divididos nas seguintes categorias:
1. manual e automático
2. contato e não-contato
3. auto-alimentado e com fonte externa
4. analógico e digital
2.1. Manual e Automático
A medição mais simples é feita
manualmente, com a interferência direta de um
operador. A medição manual geralmente é feita
por um instrumento portátil. Exemplos de
medição manual: medição de um comprimento
por uma régua, medição de uma resistência
elétrica através de um ohmímetro, medição de
uma voltagem com um voltímetro. As medições
feitas manualmente geralmente são anotadas
pelo operador, para uso posterior.
A medição pode ser feita de modo
automático e continuo. O instrumento fica
ligado diretamente ao processo, sentido a
variável e indicando continuamente o seu valor
instantâneo. Quando o operador quiser saber o
valor medido, ele se aproxima adequadamente
do instrumento e faz a leitura. Também neste
caso, ele pode anotar a leitura feita para uso
posterior.
73
Instrumentos de Medição
Quando se necessita do registro continuo
da variável, usa-se um registrador, que opera
continuamente. Atualmente é possível, num
sistema de aquisição de dados, a medição
continua de muitas variáveis e a emissão de
relatórios de medição através de impressoras
de computador.
2.2. Contato e Não-Contato
Outro critério importante no estudo dos
instrumentos de medição é sua colocação e
interação com o processo medido. A medição
pode ser feita com e sem contato físico.
Há medições realizadas com o contato
físico do instrumento com o processo. Por
exemplo, a medição de temperatura com um
termômetro clinico, o bulbo do termômetro
entra em contato físico com o corpo do qual se
quer medir a temperatura. A condução do
calor, depois de algum tempo, iguala a
temperatura do sensor com a do corpo e o
termômetro indica a temperatura medida.
Dependendo do tamanho, massa e
temperatura do termômetro, ele pode alterar a
temperatura medida.
Outro exemplo clássico de medição com
contato físico é a medição de vazão com placa
de orifício. A placa de orifício é uma restrição
que é colocada em uma tubulação. Quando a
vazão passa por esta restrição, a velocidade do
fluido aumenta e como conseqüência, a
pressão estática da tubulação diminui. Pela
medição desta diferença de pressão, antes e
depois da placa de orifício, pode-se medir com
precisão a vazão volumétrica do fluido. A placa
de orifício, elemento sensor de vazão, provoca
uma queda de pressão na tubulação e afeta a
vazão medida.
Um terceiro exemplo de medição com
contato é a medição de corrente elétrica com
um amperímetro. O amperímetro usado para
medir a corrente é colocado fisicamente no
circuito de medição. A resistência interna do
amperímetro pode afetar a medição feita.
Na maioria das medições feitas há contato
físico entre o elemento sensor e o processo. As
vezes, usam-se selos e poços para isolar o
sensor do processo, mas mesmo nestas
aplicações, há contato entre o instrumento de
medição com o processo. A principal
desvantagem do medidores diretos e com
contato é a possibilidade do sensor alterar o
valor da variável medida.
Medição sem Contato
É possível fazer medição sem o contato
físico entre o instrumento e o processo. Por
exemplo, há muito tempo os astrônomos
sabem com relativa precisão a temperatura da
superfície dos planetas, da Lua e do Sol. E eles
nunca foram a estes lugares, exceto, uma
única rápida vez, à Lua.
Exemplos clássicos de medição sem
contato:
1. Medição de temperatura com sensores de
radiação de infravermelho. A temperatura é
medida à distância, através de computação
da energia captada pelo medidor. Estes
sensores ópticos de temperatura
apresentam precisão aceitável e podem
medir temperaturas baixa (muitas pessoas
acham que eles só podem ser aplicados em
medições de alta temperatura. Quem mede
o mais difícil, também mede o mais fácil).
2. Medição da corrente e tenso elétricas
através de amperímetro alicate. No
amperímetro alicate, os fios por onde circula
a corrente que se quer medir são enrolados
externamente à ponta de prova do
amperímetro. O amperímetro mede a
corrente que circula pelo fio, sem
interromper o circuito e sem fazer parte
física do circuito.
3. Analogamente, é possível medir vazões de
fluidos com medidores ultra-sônicos, que
são não-intrusivos e externos à tubulação.
A principal justificativa do uso de medidores
sem contato, embora menos precisos que os
de contato, é a sua facilidade de aplicação,
sem interferência na operação do processo e
principalmente, sem alteração da variável
medida.
2.3. Alimentação dos Instrumentos
A energia está associada aos instrumentos
de dois modos: através da alimentação e do
método de transdução.
Qualquer instrumento para funcionar
necessita de uma fonte de energia. Esta fonte
de energia pode ser externa e explícita, quando
o instrumento é alimentado. As duas fontes
clássicas de alimentação de instrumentos são
a eletrônica e a pneumática.
Instrumentos eletrônicos são alimentados
por uma fonte externa de voltagem, típica de 24
V cc. Esta alimentação pode ser feita por um
par de fios diferente do par de fios que conduz
a informação ou pode ser feita pelo mesmo par
de fios que conduz a informação. Geralmente a
alimentação é fornecida por um instrumento
montado na sala de controle. Por questão
econômica e de segurança, raramente se usa
um instrumento de medição alimentado com
uma bateria integral (colocado no seu interior).
O sinal padrão de transmissão de corrente é de
4 a 20 mA cc.
Instrumentos pneumáticos são alimentados
por uma fonte externa de ar comprimido, típica
74
Instrumentos de Medição
de 140 kPa (20 psi). Cada instrumento
pneumático montado no campo é alimentado
individualmente através de um conjunto filtroregulador ajustável ou fixo. O filtro elimina, num
estágio final, as impurezas, umidade e óleo
contaminantes do ar comprimido. O regulador,
ajustável ou fixo, geralmente abaixa a pressão
mais elevada de distribuição para o valor típico
de 140 kPa. O sinal padrão de transmissão
pneumática é de 20 a 100 kPa.
Existe ainda instrumentos de montagem
local que não necessitam de nenhuma
alimentação externa para seu funcionamento.
Eles são chamados de auto-alimentados. Eles
utilizam a própria energia do processo para seu
funcionamento. Exemplos de indicadores e
registradores que não necessitam de
alimentação externa são:
1. indicador local de pressão, com elemento
sensor tipo bourdon C, helicoidal, espiral,
helicoidal ou fole.
2. indicador local de temperatura com
elemento sensor tipo bimetal.
3. indicador ou registrador local de vazão com
elemento sensor de pressão diferencial
(diafragma).
Idealmente, variações da alimentação do
instrumento não deveriam afetar o
desempenho dos instrumento e por isso, não
deveriam provocar erros de medição. Na
prática, quando a alimentação excede os
limites inferior e superior da alimentação, há
erros de medição. Geralmente, os fabricantes
informam tais limites de alimentação, que não
devem ser excedidos, sob pena de provocar
grandes erros de medição.
2.4. Analógico e Digital
O conceito de analógico e digital se refere a
1. sinal
2. função matemática
3. tecnologia
4. display
3. As variáveis de processo são analógicas.
Uma temperatura pode variar de 20 a 50
oC, assumindo todos os infinitos valores
intermediários. Uma pressão de processo
pode variar de 20 a 100 kPa, de modo
continuo.
Sinal digital ou discreto é aquele que só
pode assumir valores descontínuos. O sinal
digital é constituído de pulsos ou de bits.
Pulsos só podem ser contados; bits podem ser
manipulados.
São exemplos de sinais digitais:
1. Saída de pulsos da turbina medidora de
vazão, onde cada pulso escalonada pode
corresponder, por exemplo, a 1
litro/segundo de vazão.
2. palavra de 4 bits, 1101.
Função Matemática
Há funções ou tarefas que são tipicamente
analógicas, como registro e controle de
processo. Só é possível registrar um sinal
analógico. Por exemplo, quando se quer
registrar a vazão, tendo-se uma turbina
medidora com saída de pulsos, deve-se
converter o sinal de pulsos em analógico. O
controle é também uma função analógica. O
seu algoritmo fundamental, PID, é
matematicamente analógico e continuo. O
controle liga-desliga é um caso particular, com
uma saída discreta (digital). Um controlador
digital envolve uma tecnologia digital para
executar a função analógica de controle.
Funções tipicamente digitais são alarme,
contagem de eventos e totalização de vazão.
Quando se totalizam pulsos escalonados de
medição de vazão, basta contá-los. Quando se
totaliza um sinal analógico proporcional à
vazão, é necessário converter o sinal para
digital e depois contar os pulsos
correspondentes.
A indicação pode ser indistintamente
analógica ou digital.
Sinal
Sinal é uma indicação visual, audível ou de
outra forma que contem informação.
Sinal analógico é aquele que vária de modo
continuo, suave, sem saltos em degrau. O
parâmetro fundamental do sinal analógico é
sua amplitude. Medir um sinal analógico é
determinar o valor de sua amplitude. São
exemplos de sinal analógico:
1. Sinal padrão pneumático de 20-100 kPa,
onde o 20 kPa corresponde a 0% e 100 kPa
a 100%.
2. Sinal padrão eletrônico de 4-20 mA cc, onde
o 4 mA cc corresponde a 0% e 20 mA a
100%.
Fig. 4.6. Instrumento com display analógico e digital
75
Instrumentos de Medição
Um exemplo relacionando todos estes
conceitos é a medição do tempo pelo relógio. O
tempo é uma grandeza analógica. O tempo
pode ser medido por um relógio mecânico, com
tecnologia analógica e mostrador analógico.
Tem-se engrenagens, molas, pinos acionando
um ponteiro que percorre uma escala circular
graduada. O ponteiro se move continuamente.
Este mesmo tempo pode ser medido por um
relógio eletrônico, com tecnologia digital mas
com mostrador analógico. A tecnologia do
relógio é digital pois tem um microprocessador
e um cristal oscilante. A indicação é analógica,
pois é constituída de escala e ponteiro. Porém,
o ponteiro se move com pequenos saltos,
mostrando que está sendo acionado por
pulsos. Finalmente, o tempo pode ser indicado
por um relógio digital. A tecnologia do relógio é
digital e o indicador é também digital. O display
são números que variam discretamente.
Resumindo: a variável analógica tempo pode
ser indicada através de relógio analógico
(mecânico) ou digital (eletrônico) com display
analógico (escala e ponteiro) ou digital
(números).
Display
O display ou readout é a apresentação
visual dos dados. Ele pode ser analógico ou
digital.
Display analógico é aquele constituído,
geralmente, de uma escala fixa e um ponteiro
móvel (pode haver escala móvel e ponteiro
fixo). O ponteiro se move continuamente sobre
a escala graduada, possibilitando a leitura do
valor medido.
Display digital é aquele constituído por
números ou dígitos. Os números variam de
modo discreto, descontinuo, possibilitando a
leitura do valor medido.
O fator mais importante favorecendo o
instrumento digital, quando comparado com o
analógico, é a facilidade de leitura. Quando o
operador lê um instrumento analógico, ele deve
se posicionar corretamente, fazer interpolação,
usar espelho da escala, ou seja, ter um bom
olho. A leitura analógica é suscetível a erro,
subjetiva e demorada.
Tecnologia
A tecnologia eletrônica pode ser analógica
ou digital.
A base dos circuitos analógicos é o
amplificador operacional, que manipula e
computada variáveis analógicas (corrente e
voltagem). Os componentes passivos
(resistência, capacitor e indutor) servem para
polarizar os circuitos. Os componentes ativos
(transistores, amplificadores operacionais)
operam na região de amplificação linear.
Instrumento digital usa circuitos e técnicas
lógicas para fazer a medição ou para processar
os dados. Basicamente, um instrumento digital
pode ser visto como um arranjo de portas
lógicas que mudam os estados em velocidades
muito elevadas para fazer a medição. A base
dos circuitos digitais são os circuitos integrados
digitais, constituídos de portas lógicas (AND,
OR, NAND, NOR, NOT), multivibradores (flipflop), contadores e temporizadores.
Atualmente, todos estes circuitos e lógicas
estão integradas no microprocessador. Os
circuitos digitais podem também executar as
tarefas analógicas de amplificar e filtrar.
Necessariamente, eles devem ter um estágio
de conversão analógico-digital e
eventualmente, de digital-analógico.
Fig. 4.7. Instrumentos com display digital
Comparação Analógica Versus Digital
Deve-se diferenciar um instrumento digital e
um instrumento com display digital.
Instrumento digital é aquele em que o
circuito necessário para obter a medição é de
projeto digital. Um instrumento com display
digital é aquele que o circuito de medição é de
projeto analógico e somente a indicação é de
projeto digital.
Um instrumento analógico com leitura digital
é geralmente não mais preciso que o mesmo
instrumento analógico com leitura analógica.
A principal vantagem do display digital é a
conveniência de leitura, quando não se tem a
preocupação de cometer erro de paralaxe,
quando se posiciona erradamente em relação
76
Instrumentos de Medição
ao instrumento de leitura. Os psicólogos
garantem que se cansa menos quando se
fazem múltiplas leituras digitais.
Porém, a leitura de instrumento analógico é
de mais rápida e fácil interpretação,
principalmente quando se tem comparações
entre duas medições. Por isso, mesmo a
instrumentação eletrônica sofisticada com
tecnologia digital possui medidores que
simulam indicações analógicas. Por exemplo, o
controlador single loop possui indicações da
medição e do ponto de ajuste feitas através de
gráfico de barras. Os relógios digitais foram
muito populares na década de 80, porque eles
eram novidade e mais baratos. Atualmente, há
o reaparecimento de relógios com display
analógico, com ponteiros e escala, porque sua
leitura é mais rápida e fácil, pois se sabe o
significado de certas posições dos ponteiros
das horas e dos minutos.
A precisão é uma segunda vantagem do
instrumento digital sobre o analógico. Embora a
precisão dependa da qualidade e do projeto do
instrumento, em geral, o instrumento digital é
mais preciso que o analógico de mesmo custo.
Tipicamente, a precisão do digital é de 0,1% e
do analógico é de 1%.
Fig.4.8. Display analógico ou digital?
A exatidão de qualquer instrumento está
relacionada com a calibração. Como a precisão
de um instrumento digital depende da
percentagem do valor medido e de mais ou
menos alguns dígitos menos significativos (erro
de quantização), o instrumento digital requer
calibrações mais freqüentes que o instrumento
analógico, cuja precisão depende apenas da
percentagem do fundo de escala.
Os instrumentos digitais fornecem melhor
resolução que os analógicos. A maior
resolução dos instrumentos digitais reduz o
número de faixas necessárias para cobrir a
faixa de medição.
O contador é o dispositivo de saída do
instrumento com display digital. Os principais
erros na medição com um contador eletrônico
são:
1. erro de ±1 contagem
2. erro da base de tempo
3. erro de gatilho
4. erro sistemático.
Quando uma medição é feita com um
contador eletrônico, existe uma incerteza no
digito menos significativo de ±1 contagem. Esta
incerteza é resultado da não-coerência entre o
sinal de clock interno e o sinal de entrada. O
erro causado por esta ambigüidade é em
termos absolutos de ±1 contagem para a
contagem total acumulada; o erro relativo
diminui quando a contagem total acumulada
cresce.
Qualquer erro que seja resultado da
diferença entre a freqüência mestre real do
clock e sua freqüência nominal é diretamente
transferida em um erro de medição. Este erro é
chamado de erro da base de tempo e é
geralmente dado por um número adimensional
expresso em partes por milhão.
O erro de gatilho é um erro aleatório
causado pelo ruído no sinal de entrada e
dentro do contador. O principal efeito do ruído
é fazer o gatilho abrir em um período de tempo
incorreto.
O erro sistemático existe no instrumento
associado com sua calibração e depende de
sua qualidade e período de tempo transcorrido
depois da calibração.
Por exemplo, a precisão de um contador
eletrônico Hewlett-Packard é de ±1 digito ± erro
da base de tempo. Para medição de intervalo
de tempo, a precisão do contador é de ±
resolução ± erro da base de tempo ± erro do
gatilho ± 2 ns. A precisão de um multímetro
digital da Fluke, de 4 1/2 dígitos é de ±0,03%
do valor medido + 2 dígitos para a faixa de
voltagem cc. A precisão para voltagem ca
depende da freqüência, por exemplo, para o
multímetro Fluke 8050A: ±0,5% do valor
medido + 10 dígitos entre 45 Hz e 1 kHz em
todas as faixas.
Erros do Contador Digital
77
Instrumentos de Medição
2.5. Instrumento Microprocessado
Função do Microprocessador
Atualmente, o microprocessador está sendo
usado em toda parte e ganhando novas
funções, abrindo novos caminhos para seus
usuários. Isto é principalmente verdade na
instrumentação. O instrumento baseado no
microprocessador é chamado de inteligente.
No instrumento convencional, a informação
deve ser interpretada pelo operador inteligente;
no instrumento inteligente a informação já é
interpretada e fornecida num formato mais
amigável, de modo que até um operador sem
experiência pode entende-la (não
necessariamente o operador precisa ser não
inteligente).
O microprocessador revolucionou a
instrumentação eletrônica. O uso de
microprocessador em instrumentos aumentou
drasticamente sua exatidão, expandiu suas
capacidades, melhorou sua confiabilidade e
forneceu uma ferramenta para desempenhar
tarefas não imagináveis até então.
O instrumento a microprocessador se
tornou extremamente versátil, onde os
procedimentos de medição se tornaram mais
facilmente administráveis, ajustes, calibração e
teste se tornaram automáticos e o seu
desempenho metrológico foi melhorado. O
microprocessador fornece
1. procedimentos computacionais mais
eficientes,
2. analise estatística dos resultados
3. resultados linearizados e corrigidos
4. funções programáveis.
Houve uma mudança radical na filosofia do
projeto do instrumento. Como o
microprocessador se tornou uma parte integral
do instrumento, os enfoques são totalmente
diferentes com relação à estrutura, circuito e
controle do instrumento. As principais
vantagens do instrumento microprocessado
são:
1. multi funcionalidade estendida e
expandida em programas flexíveis,
2. consumo de energia foi reduzido
drasticamente,
3. adaptação fácil a interfaces padrão de
bus para sistemas integrados de
medição
4. facilidade de controle por causa da
interface
5. operação e uso mais simples,
economizando tempo.
6. tamanho miniaturizado
7. confiabilidade maior, por ter poucos
componentes, componentes mais
confiáveis por causa do encapsulamento
que o torna imune à umidade e
temperatura.
Multifuncionalidade
A idéia de instrumento multifuncional não é
nova. Porém, sem o uso do microprocessador,
um instrumento multifuncional era, na prática, a
montagem de várias sub-unidades funcionais
em um único invólucro. Em serviço, o usuário
escolhia sua função através de chaves
convenientes. Deste modo, ele montava as
várias sub-unidades em uma configuração
adaptada para medir a função escolhida. O
algoritmo de projeto do instrumento ficava
inalterado. O instrumento multifunção
convencional usava lógica fixa com todos os
circuitos e fios físicos soldados (hard-wired).
Esta forma de lógica contradiz a
multifuncionalidade e eficiência. Sempre havia
problemas para controlar e chavear as várias
funções do instrumento.
O microprocessador, como parte integrante
do instrumento, tornou a lógica fixa do
instrumento multifuncional em programável. O
programa que executa suas múltiplas funções
fica armazenado em memórias eletrônicas
(ROM ou PROM). Por este motivo, o
instrumento microprocessador é também
chamado de programa armazenado. A lógica
armazenada torna o instrumento fácil de ser
programado e de ser atualizado, sem
mudanças significativas no circuito. A lógica
programável tornou o preço do instrumento
muito menor, por causa da padronização e
simplicidade dos componentes.
Exatidão melhorada
A exatidão do instrumento microprocessado
foi muito melhorada. Os erros sistemáticos
podem ser diminuídos por vários motivos:
1. um ajuste de zero automático no início
de cada medição,
2. uma auto-calibração automática
3. auto-teste e auto-diagnose.
4. medição replicada do valor e a
computação estatística para dar o
resultado mais esperado.
5. apresentação do resultado em display de
modo que os resultados estranhos são
descartados.
Capacidades expandidas
O microprocessador estende e expande as
capacidades do instrumento, tornando-o
adaptável a várias formas de técnicas de
medição, como medição inferencial (indireta) e
acumulativa.
O instrumento microprocessado pode fazer
várias medições simultâneas e fazer
computações matemáticas complexas destes
sinais, para compensar, linearizar e filtrar os
78
Instrumentos de Medição
resultados finais. Em resposta a um simples
comando entrado através de seu teclado, o
microprocessador pega a técnica de medição
certa, armazena os resultados das várias
medições diretas, faz os cálculos e apresenta o
resultado final condicionado no display. A
medição é indireta, porém ela parece direta
para o operador.
Por exemplo, na medição da vazão de
gases, um computador de vazão
microprocessado recebe os sinais
correspondentes ao medidor de vazão
(transmissor associado à placa, turbina,
vortex), pressão, temperatura e composição.
Todos estes sinais são computados
internamente e o totalizador pode apresentar o
valor da vazão instantânea compensada em
massa ou volume, o valor do volume ou massa
acumulado e a densidade do gás. Para o
operador, tudo parece como se o computador
estivesse fazendo a medição diretamente da
vazão mássica.
Em outro exemplo, seja a medição da
potência dissipada através de um resistor por
um voltímetro microprocessado. O operador diz
ao voltímetro para medir a resistência do
resistor, armazenar o resultado e depois medir
a voltagem através do resistor e finalmente
computar a potência.
Controle simplificado
Inicialmente, se pensa que o instrumento
multifunção programável é mais complicado. O
instrumento inteligente possui um conjunto de
teclas (teclado) externo e na sua parte frontal.
Através das teclas diretas ou combinação de
teclas se pode selecionar as funções, faixas e
modos de medição. Por exemplo, um voltímetro
digital tem um teclado com 17 teclas e pode
fornecer um total de 44 combinações de
funções, faixas e modos. O instrumento ainda
pode ter alarmes que operam quando o
operador faz movimentos errados e aperta
teclas incompatíveis.
Operações matemáticas do resultado
É possível que o operador queira uma
função matemática de um resultado e não
somente no resultado em si. O instrumento
microprocessado pode fornecer várias
transformações funcionais, como:
1.
multiplicar o resultado por um fator
constante
2.
apresentar o erro absoluto da
medição
3.
apresentar o erro percentual da
medição
4.
subtrair uma constante do resultado
5.
dividir o resultado por uma constante
6.
7.
apresentar o resultado em unidades
logarítmicas
linearizar resultados
Análise estatística
Os instrumentos microprocessados podem
gerar o valor médio, valor eficaz (root mean
square), a variância, o desvio padrão de uma
variável aleatória sendo analisada e o
coeficiente de correlação de duas variáveis
aleatórias. Há instrumentos microprocessados
projetados especificamente para fazer a
analise estatística dos sinais.
Melhoria do Desempenho Metrológico
As características metrológicas do
instrumento são aquelas diretamente
relacionados com seu desempenho, em geral e
com sua precisão, em particular.
Todo instrumento está sujeito a erros
sistemáticos, aleatórios e acidental. Todos
estes erros podem ser minimizado nos
instrumentos a microprocessador.
Geralmente, os erros sistemáticos são
provocados por desvio do zero, desvio do fator
de ganho do circuito condicionador de sinal e
não linearidades internas do instrumento.
O microprocessador incorporado no
instrumento pode eliminar os erros
sistemáticos.
Ele elimina o erro de desvio de zero,
armazenando o valor correspondente ao zero
do instrumento e subtraindo automaticamente
este valor das leituras do instrumento.
Ele elimina o erro de ganho do instrumento,
armazenando um número quando o
instrumento é desligado e que corresponde a
um valor definido da voltagem de entrada.
Quando o instrumento é religado para fazer
novas medições, o instrumento
microprocessado faz comparações e usa um
fator de correção para aplicar nas novas
medições.
O instrumento pode ainda fazer correções
para os erros devidos a variação da freqüência
do sinal (o ganho do condicionador de sinal em
uma dada freqüência é diferente do ganho em
sua freqüência de referência.) O instrumento
armazena na memória a sua freqüência de
referência e corrige as medições para as
diferentes freqüências.
Os erros aleatórios não podem ser
antecipados e evitados. O máximo que o
operador pode fazer é minimizar seus efeitos,
fazendo um tratamento estatístico de todas as
medições replicadas. Deste modo, o
instrumento microprocessado armazena os
resultados das medições repetidas e faz o seu
processamento em algoritmos apropriados
para determinar média, desvio padrão e erro
79
Instrumentos de Medição
aleatório relativo. O instrumento pode, por
exemplo, determinar a média esperada, testar
a hipótese que as probabilidades do erro
aleatório são normalmente distribuídas e
computar os limites de erros aleatórios.
Compensação do ruído interno
Esta característica melhora a sensitividade
do instrumento e estende sua faixa,
possibilitando a medição de valores muito
pequenos. Para fazer isso, o microprocessador
acha o valor eficaz (rms) do sinal e do ruído.
Vantagens
Um instrumento microprocessado é a
melhor solução quando:
1. o instrumento deve ser multifuncional,
programável e versátil
2. o sistema de medição deve ser
expandido acomodar várias funções
3. o sistema de medição deve ser
interfaceado com um sistema digital
4. os dados devem ser armazenados em
memória
5. um grande número de estados lógicos
devem ser mantidos na memória
6. as medições feitas por técnicas indiretas
e cumulativas e o procedimento deve ser
automatizado
7. é especificado um alto desempenho
metrológico, impossível de ser obtido por
métodos convencionais
8. são essenciais a autocalibração e
autodiagnose
9. o processamento estatístico dos dados
deve ser parte do procedimento de
medição e feito automaticamente
10. as incertezas das medições devem ser
determinadas e apresentadas no display,
em linha do processo
11. há necessidade de transformações
funcionais matemáticas, como
linearização, conversão de resultados,
compensação através de cálculos
complexos
Por causa de todas estas vantagens, o
microprocessador chegou e vai ficar por muito
tempo nos campos da medição e
instrumentação. Ele é a base do progresso que
a ciência e a tecnologia tiveram nos últimos e
próximos anos.
Desvantagens
Há também várias razões para questionar o
uso do instrumento microprocessado, algumas
subjetivas e outras objetivas. As mais
importantes são:
Há a barreira psicológica, de algumas
pessoas que desconhecem o
microprocessador ainda duvidam e não
aceitam os benefícios transparentes do
microprocessador. Muitos acham que o
microprocessador é muito complicado e
economicamente não é atraente. Muitos acham
que não necessitam de toda a capacidade do
microprocessador e por isso a sua aplicação
seria ociosa e exagerada. Outros acham que o
microprocessador está associado a um
programa (software) que é outro motivo de
repulsa, pois o seu custo é maior que o do
microprocessador.
Todas estas questões são facilmente
resolvidas. Embora internamente o
microprocessador tenha milhares (e até
milhões) de componentes, esta complexidade
não requer que o seu usuário a entenda.
Mesmo complexo, o microprocessador é
estável e confiável, muito mais que qualquer
circuito com componentes discretos. Embora a
maioria utilize somente uma pequena parte da
capacidade total do microprocessador, ainda
assim a sua aplicação é economicamente
vantajosa. O software associado ao
microcomputador é também complexo e pode
ter os seus besouros (bugs), porém o usuário
não precisa conhece-lo. Geralmente o software
está gravado em uma memória ROM (ou
PROM) e as eventuais modificações ou
melhorias são feitas pelo fabricante e os
benefícios são do usuário final.
80
Instrumentos de Medição
3. Sistema de Medição
3.1. Conceito
Embora haja vários tipos de controle, vários
níveis de complexidade, vários enfoques
diferentes, há um parâmetro em comum no
controle, monitoração e alarme do processo: a
medição das variáveis e grandezas do
processo. A medição é fundamental. A base de
um controle correto é a medição precisa da
variável controlada.
A instrumentação para fazer estas
medições é vital para a indústria. O uso de
instrumentação em sistemas como casa de
força, indústrias de processo, máquinas de
produção automática, com vários dispositivos
de controle, manipulação e segurança
revolucionou e substituiu velhos conceitos. Os
instrumentos tem produzido uma grande
economia de tempo e mão de obra envolvida.
Os sistemas de instrumentos agem como
extensões dos sentidos humanos e facilitam o
armazenamento da informação de situações
complexas. Por isso, a instrumentação se
tornou um componente importante das
atividades rotineiras da indústria e contribuiu
significativamente para o desenvolvimento da
economia.
Um sistema completo de medição consiste
dos seguintes elementos básicos:
1. elemento sensor ou elemento transdutor,
que detecta e converte a entrada
desejada para uma forma mais
conveniente e prática a ser manipulada
pelo sistema de medição. O elemento
sensor é também chamado de elemento
primário ou transdutor. Ele constitui a
interface do instrumento com o processo.
2. elemento condicionador do sinal, que
manipula e processa a saída do sensor
de forma conveniente. As principais
funções do condicionador de sinal são as
de amplificar, filtrar, integrar e converter
sinal analógico-digital e digital-analógico.
3. o elemento de apresentação do dado,
que dá a informação da variável medida
na forma quantitativa. O elemento de
apresentação de dado é também
chamado de display ou readout. Ele
constitui a interface do instrumento com
o operador do processo.
Os elementos auxiliares aparecem em
alguns instrumentos, dependendo do tipo e da
técnica envolvida. Eles são:
1. elemento de calibração para fornecer
uma facilidade extra de calibração
embutida no instrumento. Os
transmissores inteligentes possuem esta
capacidade de auto-calibração
incorporada ao seu circuito.
2. elemento de alimentação externa para
facilitar ou possibilitar a operação do
elemento sensor, do condicionador de
sinal ou do elemento de display.
3. elemento de realimentação negativa
para controlar a variação da quantidade
física que está sendo medida. Este
elemento possibilita o conjunto funcionar
automaticamente, sem a interferência do
operador externo.
Por exemplo, no indicador analógico de
pressão com bourdon C, o elemento sensor é o
tubo metálico em forma de C. A pressão a ser
medida é aplicada diretamente no sensor que
sofre uma deformação elástica, produzindo um
pequeno movimento mecânico. A entrada do
sensor é a pressão e a saída é um movimento
mecânico. Este pequeno movimento é
mecanicamente amplificado por meio de
engrenagens e alavancas, que constituem os
elementos condicionadores do sinal.
Finalmente, um ponteiro é fixado na
engrenagem e executa uma excurso angular
sobre uma escala graduada em unidade de
pressão. O conjunto escala e ponteiro constitui
o elemento de apresentação de dados. Este
instrumento é analógico e seu funcionamento é
mecânico. Ele não requer alimentação externa,
pois utiliza a própria energia da pressão para
funcionar.
Em outro exemplo, no indicador digital de
pressão com strain-gage, o strain-gage é o
elemento sensor que detecta a pressão a ser
medida. A pressão medida varia a resistência
elétrica do strain-gage. A entrada do straingage é a pressão e a saída é uma resistência
elétrica. A variação da resistência é
linearmente proporcional à pressão medida. A
resistência do strain-gage faz parte de um
circuito elétrico, chamado de ponte de
Wheatstone. A ponte de Wheatstone é um
condicionador de sinal. Através de uma
polarização externa e um balanço de nulo, é
possível determinar a variação da resistência
elétrica do strain-gage. O circuito da ponte
também processa o sinal elétrica, amplificandoo, filtrando-o de ruídos externos e, no caso,
convertendo-o para pulsos para dar uma
indicação final digital. Este instrumento é
eletrônico e a indicação é digital. A
apresentação de dados não é feita através do
conjunto escala e ponteiro, mas de um
conjunto de dígitos.
81
Instrumentos de Medição
3.2. Sensor
O elemento sensor não é um instrumento
mas faz parte integrante da maioria absoluta
dos instrumentos. O elemento sensor ou
elemento transdutor é o componente do
instrumento que converte a variável física de
entrada para outra forma mais usável.
Os nomes alternativos para o sensor são:
transdutor, elemento transdutor, elemento
primário, detetor, probe, pickup ou pickoff. O
nome correto e completo do transdutor
recomendado pela norma ISA 37.1 (1982)
inclui:
1. o nome transdutor,
2. variável sendo medida,
3. modificadora restritiva da variável,
4. princípio de transdução,
5. faixa de medição,
7. unidade de engenharia.
Exemplos de elementos sensores:
1. Transdutor pressão diferencial,
potenciométrico, 0-100 kPa.
2. Transdutor pressão de som capacitivo,
100-160 dB.
3. Transdutor de pressão absoluta a straingage amplificador, 0-500 MPa.
4. 0-300 oC, resistivo, superfície,
temperatura, transdutor.
Os elementos sensores podem ser
classificados conforme a natureza do sinal de
saída como:
1. mecânicos
2. eletrônicos
As principais vantagens do sinal eletrônico
sobre o mecânico são:
1. não há efeitos de inércia e atrito,
2. a amplificação é mais fácil de ser obtida
3. a indicação e o registro à distância são
mais fáceis.
A unidade dimensional da entrada
geralmente é diferente da unidade da saída.
Quando as unidades forem iguais, o elemento
funcional pode ser chamado de transformador.
O elemento sensor depende principalmente
da variável sendo medida.
Terminologia
De um modo geral, transdutor é o elemento,
dispositivo ou instrumento que recebe a
informação na forma de uma quantidade e a
converte para informação para esta mesma
forma ou outra diferente. Aplicando este
definição, são transdutores: elemento sensor,
transmissor, transdutor i/p e p/i, conversor
eletrônico analógico-digital. Para padronizar a
linguagem foi publicada a norma ISA 37.1 que
recomenda o seguinte:
1. elemento sensor ou elemento transdutor
para o dispositivo onde a entrada e a
saída são ambas não-padronizadas e de
naturezas iguais ou diferentes.
2. transmissor para o instrumento onde a
entrada é não-padronizada e a saída é
padronizada e de naturezas iguais ou
diferentes.
3. transdutor ou transdutor de sinal para o
instrumento onde a entrada e a saída
são ambas padronizadas e de naturezas
diferentes.
4. conversor para o instrumento eletrônico
onde a entrada e a saída são ambas de
natureza elétrica mas com
características diferentes, como o
conversor A/D (analógico para digital),
D/A (digital para analógico) e conversor
I/F (corrente para freqüência).
Sensores Mecânicos
O elemento sensor mecânico recebe na
entrada a variável de processo e gera na saída
uma grandeza mecânica, como movimento,
força ou deslocamento, proporcional a esta
variável.
O elemento sensor mecânico não necessita
de nenhuma fonte de alimentação externa para
funcionar; ele é acionado pela própria energia
do processo ao qual está ligado.
Fig. 4.9. Sensores mecânicos de pressão
Exemplos de elementos sensores
mecânicos: tubo bourdon, para a medição de
pressão; bimetal, para a medição de
temperatura; conjunto placa de orifício-sensor
de pressão diferencial para a medição de
vazão.
Nem todas as variáveis de processo podem
ser medidas mecanicamente. Por exemplo, a
análise química, o pH, a condutividade elétrica
não podem ser medidas por meios mecânicos.
Sensores Eletrônicos
O elemento sensor eletrônico recebe na
entrada a variável de processo e gera na saída
uma grandeza elétrica, como voltagem,
corrente elétrica, variação de resistência,
capacitância ou indutância, proporcional a esta
variável.
82
Instrumentos de Medição
Há elementos sensores ativos e passivos.
Os elementos ativos geram uma tenso ou
uma corrente na saída, sem necessidade de
alimentação externa. Exemplo de elementos
sensores eletrônicos ativos: o cristal
piezelétrico para a medição da pressão; o
termopar para a medição da temperatura e os
eletrodos para a medição de pH. Os circuitos
que condicionam estes sinais necessitam de
alimentação externa.
Os elementos passivos necessitam de uma
polarização elétrica externa para poder variar
uma grandeza elétrica passiva para medir a
variável de processo. As grandezas elétricas
variáveis são: a resistência, a capacitância e a
indutância. Exemplo de elementos sensores
passivos eletrônicos: a resistência detetora de
temperatura, a célula de carga (strain gage)
para a medição de pressão e de nível, a bobina
detetora para a transdução do sinal de corrente
para o sinal padrão pneumático.
Fig. 4.10. Sensores elétricos de temperatura: termopar e
RTD
Os elementos sensores eletrônicos, por sua
vez, podem ser classificados de acordo com o
formato da sua saída como analógicos e
digitais.
Os elementos sensores eletrônicos
analógicos podem ser do tipo potenciométrico,
indutivo, capacitivo, piezoelétrico, strain-gage e
de ionização. Os elementos sensores
eletrônicos digitais podem ser do tipo gerador
de freqüência ou codificador digital.
Praticamente, toda variável de processo
pode ser medida eletronicamente.
Características Desejáveis do Sensor
Em certos casos, o sensor do sinal de
entrada pode aparecer discretamente em dois
ou mais estágios, tendo-se o elemento
primário, secundário e terciário. Em outros
casos, o conjunto pode ser integrado em um
único elemento.
Algumas características desejáveis de um
elemento sensor que devem ser consideradas
em sua especificação e seleção para uma
determinada aplicação são:
1. o elemento sensor deve reconhecer e
detectar somente o sinal da variável a
ser medida e deve ser insensível aos
outros sinais presentes simultaneamente
na medição. Por exemplo, o sensor de
velocidade deve sentir a velocidade
instantânea e deve ser insensível a
pressão e temperatura locais.
2. o sensor não deve alterar a variável a
ser medida. Por exemplo, a colocação
da placa de orifício para sentir a vazão,
introduz uma resistência à vazão,
diminuindo-a. A vazão diminui quando se
coloca a placa para medi-la.
3. o sinal de saída do sensor deve ser
facilmente modificado para ser
facilmente indicado, registrado,
transmitido e controlado. Por isso,
atualmente os sensores eletrônicos são
mais preferidos que os mecânicos, pois
são mais facilmente indicados e
manipulados.
4. o sensor deve ter boa exatidão.
5. o sensor deve ter boa precisão,
constituída de linearidade, repetitividade
e reprodutibilidade.
6. o sensor deve ter linearidade de
amplitude.
7. o sensor deve ter boa resposta dinâmica,
respondendo rapidamente às variações
da medição.
8. o sensor não deve induzir atraso entre
os sinais de entrada e de saída, ou seja,
não deve provocar distorção de fase.
9. o sensor deve suportar o ambiente hostil
do processo sem se danificar e sem
perder suas características. O sensor
deve ser imune à corrosão, erosão,
pressão, temperatura e umidade
ambientes.
10. o sensor deve ser facilmente disponível
e de preço razoável.
3.3. Condicionador do Sinal
A saída do elemento sensor geralmente
ainda não é conveniente para operar
diretamente um indicador, um registrador ou
um controlador. Assim, deve-se adicionar um
outro elemento para processar, modificar e
converter o sinal de saída do sensor em outro
sinal mais adequado em forma e amplitude.
O sinal de saída do sensor pode ser
alimentado para a entrada do elemento
condicionador através de vários modos, como:
83
Instrumentos de Medição
1. link mecânico, como engrenagem,
alavanca, haste, eixo,
2. cabo elétrico,
3. fluido, como óleo (hidráulico), ar
comprimido (pneumático).
4. componente eletrônico, como
potenciômetro, capacitor e indutor.
A transmissão do sinal pode ser feita
fisicamente através de fios elétricos (corrente
ou voltagem) ou através de tubos pneumáticos.
O sinal pode também ser transmitido por
telemetria, usando-se ondas de rádio ou linhas
telefônicas.
As operações de condicionamento de sinal
mais comuns são:
1. amplificação
2. filtro
3. compensação
4. linearização
5. diferenciação, integração
6. conversão analógico-digital ou digitalanalógico
7. amostragem do sinal
8. computação matemática, como soma,
subtração, divisão, multiplicação,
extração de raiz quadrada.
9. seleção de sinal, como o máximo,
mínimo ou médio.
Amplificador
Amplificar um sinal é aumentar sua
amplitude sem afetar sua forma de onda. O
fenômeno inverso é chamado de atenuação,
i.e., redução da amplitude do sinal mantendo
sua forma de onda original. Pode-se dizer que
atenuação é uma amplificação com ganho
menor que 1.
O sinal de saída do sensor precisa ser
amplificado para operar os mecanismos de
indicação ou registro. Por isso, um elemento
conveniente de amplificação deve ser
incorporado no elemento de condicionamento
de sinal, que pode ser um dos seguintes,
dependendo do tipo do sinal do sensor:
1. elemento de amplificação mecânica, como
alavanca, engrenagem ou sua combinação,
projetado para ter um efeito multiplicador no
sinal mecânico de saída do sensor.
2. elemento de amplificação pneumática,
empregando vários tipos de restrições,
foles, bicos e palhetas, para dar variação
significativa na pressão com pequena
variação nos parâmetros de entrada. É
clássico o conjunto bico-palheta-relé
pneumático para gerar o sinal padrão
pneumático de 3-15 psig.
3. elemento de amplificação óptica, em que
lentes, espelhos e lâmpadas podem ser
combinados para converter pequenos
deslocamentos de entrada em maiores
sinais de saída para uma indicação
conveniente.
4. elemento de amplificação elétrica,
empregando transistores, circuitos
integrados e elementos de polarização para
aumentar a amplitude do sinal do
transdutor. O amplificador eletrônico é o
mais versátil e conhecido. Ele pode
amplificar voltagem ou corrente (potência).
Filtro
Filtrar um sinal é remover os sinais de ruído
indesejáveis que tendem a obscurecer o sinal
do sensor. O elemento de filtro do sinal pode
ser do seguinte tipo, dependendo da natureza
do sinal:
1. filtro mecânico, consistindo de elementos
mecânicos para proteger o elemento
sensor dos vários sinais externos de
interferência. Um fluido viscoso no
interior de um bourdon amortece as
oscilações do ponteiro do manômetro.
2. filtro pneumático, consistindo de
restrições e capacitâncias. Restrições na
entrada dos instrumentos pneumáticos
eliminam ruídos do sinal de 3-15 psig da
transmissão. Potes capacitivos também
são usados para amortecer picos no
sinal pneumático.
3. filtro elétrico, consistindo de resistores,
capacitores e indutores. Há filtros ativos,
usando amplificadores operacionais. Os
filtros servem para eliminar os picos e
ruídos devidos aos campos elétrico e
magnético.
Compensador
Compensar um sinal é eliminar
continuamente a interferência de outros sinais.
Por exemplo, a medição de vazão volumétrica
de gases é influenciada pela temperatura e
pressão do processo. Quando a vazão é
constante mas há variação da pressão e da
temperatura do processo, aparece erro na
indicação. Faz-se a compensação da medição
de vazão de fluido compressível medindo-se
continuamente a vazão, a pressão e a
temperatura. Os três sinais entram em um
computador analógico que elimina os efeitos da
pressão e da temperatura.
Quando uma medição é influenciada por um
parâmetro fixo, faz-se a polarização da
medição. Polarizar um sinal é multiplicar o sinal
por uma constante. Por exemplo, quando se
projeta um medidor de vazão de gás para uma
determinada pressão e se trabalha em outra
pressão constante, multiplica-se a medição por
um fator constante. Como a pressão do
processo é assumida constante, não é
necessário medi-la continuamente para fazer a
84
Instrumentos de Medição
compensação; basta conhecer o seu valor e
usar um fator de multiplicação na indicação.
Compensar é tirar o efeito de um valor variável;
polarizar é tirar o efeito de um valor constante.
Na medição das variáveis de processo é
importante definir as condições do processo e
do ambiente. O instrumento pode apresentar
grandes erros quando as condições reais são
diferentes das condições especificadas.
multiplicador
- divisor
PT
2.
extrator raiz
quadrada
x/÷
√
FY
FY
sinal
quadrático
de vazão
controlador
de vazão
3.
FIC
sinal linear
de vazão
4.
FT
TT
5.
FCV
FE
Fig. 4.11. Medição de vazão de gás com
compensação da pressão e da temperatura
São disponíveis instrumentos chamados
computadores analógicos que realizam as
operações matemáticas de soma, subtração,
multiplicação, divisão, elevação ao quadrado,
extração de raiz quadrada, úteis na
compensação e linearização de sinais. Com a
instrumentação inteligente, baseada em
microprocessadores, esta capacidade de
computação matemática, lógica, seqüencial e
intertravamento está integrada ao circuito.
Linearizador
Linearizar um sinal não-linear é torna-lo
linear. Só se lineariza sinais não-lineares,
aplicando-se a função matemática inversa. Por
exemplo, lineariza-se um sinal quadrático
extraindo-se sua raiz quadrada. Lineariza-se
um sinal exponencial aplicando seu logaritmo.
A linearização de um sinal não-linear pode
ser feita de vários modos diferentes, tais como:
1. escolha da porção linear da curva, como
na aplicação de medição de temperatura
por termopares. Cada tipo de termopar
6.
apresenta uma região linear para
determinada faixa de temperatura.
uso de uma escala não-linear, como na
aplicação de medição de vazão por
placa de orifício. Como a placa gera um
pressão diferencial proporcional ao
quadrado da vazão volumétrica, usa-se
uma escala raiz quadrática (que a
maioria das pessoas insiste,
erradamente, em chamar de quadrática).
Quando se usam termopares para
medição de temperatura incluindo as
regiões não-lineares, deve-se usar a
escala especifica do termopar, como tipo
K, J, R, S, T, E e B.
uso de computadores analógicos
linearizadores (hardware), como o
instrumento extrator de raiz quadrado do
sinal de pressão diferencial proporcional
ao quadrado da vazão volumétrica,
gerado pela placa de orifício.
uso de circuitos linearizadores
(hardware), incorporados no circuito do
transmissor ou do instrumento receptor.
uso de pontos de curva de linearização,
armazenados em ROMs ou PROMs
(firmware), como no sistema de
linearização de baixa vazão em turbinas
medidoras.
uso de programas (software) de
linearização em sistemas digitais, como
nos computadores de vazão ou sistemas
digitais de aquisição de dados. Durante a
configuração do sistema, tecla-se o tipo
de não-linearidade do sinal de entrada e
o sistema automaticamente lineariza o
sinal.
Conversor Analógico-Digital
As variáveis de processo são analógicas, ou
seja, variam continuamente de 0% a 100%
assumindo todos os infinitos valores
intermediários. A função de totalização é
matemática discreta ou digital. Hoje, a maioria
dos instrumentos eletrônicos usa tecnologia
digital. Assim, é necessário um dispositivo para
converter o sinal analógico do mundo externo
para um sinal digital, para ser manipulado
pelos circuitos digitais.
Quando se usa controle com realimentação
negativa, há atuação no processo analógico.
Quando se usa instrumentação digital, é
também necessário converter o sinal digital do
sistema para o sinal analógico de atuação no
processo. Tem-se, assim, o conversor digitalanalógico.
Em instrumentação, é também comum um
único indicador, registrador e controlador ser
compartilhado por centenas ou milhares de
sinais. Para fazer esta operação, foi
85
Instrumentos de Medição
desenvolvido um circuito eletrônico chamado
de multiplexador. O multiplexador possibilita o
uso de um único instrumento por vários sinais
de entrada. O circuito toma um sinal por vez,
manipula-o e passa para o seguinte, numa
varredura automática. Como a sua freqüência
de operação é muito maior que a freqüência
natural dos sinais manipulados, não há
problemas práticos quando o sinal fica no ar.
Este tempo de não-utilização do sinal é tão
pequeno que o sinal não percebe. Também, há
circuito de demultiplexação, que converte um
único sinal em muitos.
Estes circuitos de conversão analógicodigital, digital-analógico, multiplexação,
demultiplexação podem ser incorporados em
um único instrumento, economizando espaço e
facilitando ligações. Por exemplo, modem é um
equipamento de modulação-demodulação, que
faz as funções de multiplexação, conversão
analógico-digital, conversão digital-analógico e
demultiplexação.
Transmissor
A transmissão é uma função auxiliar,
opcional, pois nem toda malha de indicação,
registro ou controle necessita do transmissor.
Mesmo os instrumentos montados no painel
central não necessitam obrigatoriamente do
transmissor. Por exemplo, as indicações locais
de temperatura com termopar ou resistência
elétrica podem ser sem transmissor.
Transmissor é o transdutor que responde a
uma variável medida por meio de um elemento
sensor e a converte para um sinal de
transmissão padrão que é função somente da
variável medida. O transmissor sente a variável
de processo e gera na saída um sinal padrão,
proporcional ao valor desta variável.
O transmissor é aplicado para
1. enviar sinais para manipulação remota,
2. padronizar sinais e
3. isolar sinais.
Os sinais padrão de transmissão são:
1. pneumático, de 10 a 100 KPa (3 a 15
psig)
2. eletrônico, de 4 a 20 mA cc.
São pouco usados: 0 a 20 mA cc (não é
faixa detetora de erro), 10 a 50 mA cc (nível
elevado e perigoso), 1 a 5 V cc (tensão não é
conveniente para a transmissão).
Na instrumentação, há uma resistência de
chamar o transmissor de vazão de transmissor,
preferindo-se, erradamente, chamá-lo de
conversor. Assim, o instrumento que recebe o
sinal de militensão alternada do tubo magnético
deve ser chamado de transmissor de vazão.
Aliás, o tag deste instrumento é FT e não FY.
O medidor de vazão tipo alvo (target) possui
um transmissor pneumático ou eletrônico
incorporado ao seu circuito.
Os transmissores pneumáticos se baseiam
no sistema bico-palheta e através da
realimentação negativa por equilíbrio de forças
ou de movimentos, converte o movimento do
elemento de medição (pressão, temperatura,
vazão, nível) no sinal padrão de 20 a 100 kPa.
São alimentados com a pressão nominal de
120 a 140 kPa e possuem a precisão típica de
0,5% do valor medido.
Fig. 4.12. Transmissor eletrônico
Os transmissores eletrônicos se baseiam no
amplificador operacional e através de
detectores indutivos, capacitivos ou resistivos,
convertem o sinal da variável (pressão,
temperatura, vazão, nível) no sinal padrão de
corrente de 4 a 20 mA cc. São alimentados
com a voltagem nominal de 24 V cc, através de
2 (mais usado), 3 ou 4 fios e possuem a
precisão típica de 0,5% do fundo de escala.
Em 1983, a Honeywell lançou no mercado o
primeiro transmissor que incorporava o
microprocessador em seu circuito eletrônico,
chamado de transmissor inteligente (smart
transmiter). Pelo fato de ter um
microprocessador, o transmissor possui
funções adicionais, tais como:
1. linearização do sinal dos elementos
sensores individuais, tais como extrator
de raiz quadrada, linearização de sinais
de termopares específicos,
2. compensação adequada das variações
de temperatura e de pressão estática do
fluido que atuam sobre o transmissor,
substituindo os computadores analógicos
3. auto-calibração, onde o próprio
transmissor faz as operações de ajustes
de zero e de fundo de escala, a partir da
sala de controle.
86
Instrumentos de Medição
4. mudança da faixa calibrada,
possibilitando o aumento da
rangeabilidade da medição, passando de
10:1 para 400:1
5. auto-diagnose de seus circuitos e peças
internas, informando ao instrumentista a
existência de problema no circuito, o
diagnóstico e a natureza do problema.
6. fixação do valor da variável no último
valor alcançado, quando há
irregularidades na malha.
7. visualização do sinal de saída, dos
dados de configuração, da faixa
calibrada e de outros parâmetros,
através de um comunicador portátil, que
se liga em qualquer ponto da linha de
transmissão.
Vários transmissores inteligentes podem ser
ligados, através de uma conexão RS 232C, a
computador pessoal, que pode configurar os
transmissores por meio de um programa
adequado.
O transmissor inteligente possui a saída de
4 a 20 mA cc além da saída digital (a partir de
1986), para que o sistema não necessite do
conversor A/D (para o transmissor) e o D/A
(para o instrumento receptor).
A precisão típica do transmissor inteligente
é de 0,1% do fundo de escala.
Transdutor
Genericamente, transdutor é qualquer
dispositivo que altera a natureza do sinal
recebido na entrada com o gerado na saída.
Deste ponto de vista, o elemento sensor, o
transmissor, o conversor são considerados
transdutores.
Em instrumentação, transdutor é o
instrumento que converte um sinal padrão de
transmissão em outro sinal padrão de
transmissão. Deste modo, tem-se o transdutor
p/i, que converte o sinal pneumático no sinal
padrão de corrente eletrônica e o transdutor i/p,
que converte o sinal padrão de corrente elétrica
em sinal padrão pneumático.
O transdutor é aplicado para possibilitar a
utilização de instrumentos pneumáticos e
eletrônicos na mesma malha. Eles são
chamados incorretamente de conversores.
O transdutor serve de interface entre a
instrumentação pneumática e a eletrônica.
Como o elemento final de controle mais usado
é a válvula com atuador pneumático, o
transdutor I/P é usado principalmente para
casar a instrumentação eletrônica de painel
com a válvula com atuador pneumático.
3.4. Apresentação do Sinal
O elemento de apresentação do sinal
recebe o sinal da saída do condicionador e
apresenta o mesmo para ser lido pelo
operador. Ele é também chamado de display
ou readout.
Este elemento pode ser do tipo display
visual (indicador ou visor), registro gráfico
(registrador) ou registro magnético em fita ou
disco (memória de massa de computador).
O elemento de display deve ter
1. resposta mais rápida possível,
2. impor o menor arraste possível no
sistema,
3. ter a mínima inércia e atrito.
Indicador
Indicador é o instrumento de medição que
mostra o valor instantâneo da variável no seu
display. O display pode ser analógico ou digital.
O indicador analógico tem uma escala fixa
com um ponteiro móvel ou uma escala móvel e
um ponteiro fixo. Quanto maior o tamanho da
escala, maior a resolução da medição e maior
o número de algarismos significativos. A escala
pode ser curva ou reta, horizontal ou vertical.
Fig. 4.13. Erro de paralaxe
Na leitura de instrumentos analógicos com
escala e ponteiro deve-se olhar
perpendicularmente à escala, evitando o erro
de paralaxe. O erro de paralaxe é cometido
quando se observa o ponteiro obliquamente e
lê-se a maior em uma escala crescente,
quando se está à esquerda do ponteiro e a
menor, quando se está à direita do ponteiro.
O indicador digital possui números para
apresentar o valor da variável medida. Quanto
maior a quantidade de dígitos, maior é a
resolução da medição e maior o número de
algarismos significativos indicado. O número de
algarismos significativos, porém, deve ser
consistente com a precisão do resto do sistema
de medição.
Os indicadores digitais são classificados de
acordo com o número de dígitos totais
mostrados. Por exemplo, tem-se indicadores
com 3 ou 4 dígitos. Cada um destes dígitos
pode assumir valores entre 0 a 9. Tem-se
87
Instrumentos de Medição
também instrumento com meio dígito. O meio
dígito só pode assumir valores de 0 ou 1. A
vantagem de se usar um instrumento com meio
dígito são as seguintes:
1. tem-se um instrumento pouco mais caro
que o de dígito inteiro, por exemplo, um
instrumento de 3 ½ dígitos tem
aproximadamente o mesmo custo que o
de 3 dígitos,
2. pode-se estender a precisão de uma
faixa em 100%, ou seja, pode-se medir
com dois algarismos depois da vírgula
até 19,99
(3 ½ dígitos e não apenas até 9,99
(3 dígitos).
Por exemplo, para se medir o valor de
10,024 V deve-se ter um instrumento com 5
dígitos. O de 4 dígitos faria a leitura de 10,02.
Porém, o instrumento com 4 ½ dígitos pode
fazer a leitura de 10,024 V, mantendo leituras
com 3 dígitos depois da vírgula até 19,999. Dizse, então que o instrumento com 4 ½ dígitos
possui um overrange (sobrefaixa) de 100% em
relação ao de 4 dígitos, pois a relação de
leituras com três algarismos depois da vírgula é
de
19,999/9,999 = 100%
Do mesmo modo, tem-se instrumento com 4
¾ dígitos, com sobrefaixa de 200% e onde o
dígito de ¾ pode assumir valores de 0, 1 e 2.
Fig. 4.14. Escala analógica de indicador
Na leitura do indicador digital não há
problema de erro de paralaxe. Porém, é
possível se cometer erros de leitura, quando os
LEDs de indicação do dígito estão queimados.
Por exemplo, o número 8 pode se transformar
em 0, quando o LED central estiver queimado;
o dígito 7 pode ser lido como 1, quando o LED
superior esquerdo se queimar.
Fig. 4.15. Indicador digital de pressão
Tem-se a tendência errada de considerar
qualquer indicador digital mais preciso e exato
que o analógico. Como será visto, a precisão é
um conceito relacionado com a qualidade dos
componentes e construção de um instrumento
e a exatidão está relacionada com a calibração.
Assim, na prática, é possível se ter indicador
analógico mais exato e preciso que um digital.
Estudos mostram que, psicologicamente, se
cansa menos e comete-se menos erros de
leituras quando se trabalha com numerosas
indicações digitais.
Visor
O visor é usado para medir diretamente a
vazão ou o nível. Os tags são FG e LG
respectivamente para vazão e nível.
O visor completo consiste da câmara, vidro,
gaxetas, tampas e parafusos.
O vidro é normalmente de borossilicato, que
pode agüentar até 230 oC e possui boa
resistência mecânica e ao choque termal. O
vidro pode também ser de vidro de silício ou
quartzo, quando pode operar com temperatura
de até 530 oC. A câmara pode ser feita de
vários materiais e pode ter revestimentos de
materiais compatíveis com fluidos corrosivos.
Os parafusos e as tampas são metálicos, de
materiais compatíveis com o fluido,
temperatura e pressão.
Os visores de vazão oferecem um meio
simples e barato de ver o processo e assegurar
que o fluido esteja vazando, além de poder
notar características do processo, como cor,
turbidez ou outra propriedade que possa
indicar alterações no processo ou estragos no
equipamento. Seu uso é limitado na indústria.
É difícil estimar o valor da vazão e cria-se um
perigo se o vidro se quebrar. Eles são usados
geralmente para indicação local no processo
industrial.
O visor de nível mede diretamente o nível
de liquido dentro de um tanque. Ele possui uma
parede transparente, com uma escala
graduada e a leitura quantitativa do nível é feita
88
Instrumentos de Medição
pela leitura direta do menisco do liquido na
escala. Ele é semelhante ao visor de vazão,
quanto às características físicas e materiais de
construção.
Registrador
O registrador é o instrumento que sente
uma variável de processo e imprime o valor
desta variável em um gráfico através de uma
pena. Quanto ao local de montagem,
registrador pode estar no campo (local) ou na
sala de controle (remoto). Quanto ao modo do
registro, o registrador pode ser continuo, com 1
a 4 penas, ou multiponto, com o registro
descontinuo de 6 ou 12 ou 24 pontos. O
formato do gráfico pode ser circular ou em tira.
O gráfico de tira pode ser em rolo ou
sanfonado. O acionamento do gráfico pode ser
mecânico, elétrico e raramente pneumático.
Medidor
analógico
Medidor
digital
Registro
ou
Controle
Registro
ou
Controle
Conversor
D/A
Fig.4. 17. Registro e controle de variáveis
Medidor
digital
Medidor
analógico
Contador
Conversor
A/D
Contador
Totalizador
Fig. 4.18. Contagem e totalização de variáveis
Fig. 4.16. Registrador de painel microprocessado, gráfico
de tira (Yokogawa)
O registro pode ser analógico ou digital e
pode ser visualmente indicado ou não.
Atualmente, o registrador está sendo
substituído, com vantagens, pelo computador
digital usado para a aquisição de dados (data
logger). O computador digital utiliza suas
vantagens inerentes de alta velocidade, de
grande capacidade de armazenamento de
dados, de possibilidade de mostrar os gráficos
em telas de vídeo e de imprimir os dados em
formulários contínuos ou em plotadores.
A malha de registro é passiva e aberta.
A vazão pode também ser registrada no
local ou remotamente. O registro do gráfico
pode ser usado, posteriormente, para o cálculo
da totalização da vazão. Esta totalização pode
ser feita manualmente e sem uso de outro
instrumento ou pode se utilizar o planímetro.
Integrador-Totalizador
O integrador totaliza um sinal e a sua
indicação de saída é um contador. O
totalizador integra o sinal analógico, por isso é
chamado de integrador. Quando o sinal é em
pulsos, o totalizador conta os pulsos e por isso
é chamado erradamente de contador. O
contador é a saída do totalizador.
O totalizador pode receber sinais analógicos
ou digitais. O contador só pode receber pulsos.
Funcionalmente, quando o integrador recebe
um sinal analógico, ele o converte para sinais
de pulsos e conta os pulsos. Quando o
integrador recebe diretamente pulsos, ele os
escalona e os conta. Pulso escalonado é
aquele que já possui um significado
quantitativo do volume, ou seja, o contador
basta contá-los e o display é o volume correto
acumulado.
Em instrumentação eletrônica é possível
fazer a contagem de pulsos sem erro, usando
circuitos digitais e bits de paridade. Mas isso
não significa que a totalização é isenta de
erros, pois pode haver erros na conversão do
sinal analógico para pulsos. O medidor digital
que gera pulsos também pode cometer erros
na geração destes pulsos. Por exemplo, uma
turbina medidora de vazão que tenha uma
palheta do rotor quebrada, vai gerar pulsos
com freqüência proporcional à vazão medida
com um grande erro. Se o número total de
palhetas for quatro e uma estiver quebrada, o
erro é de 25% do valor medido.
89
Instrumentos de Medição
FI
FT
FQ
0 13 5 0 4
FE
(a) Totalização de sinal analógico
FT
0 13 5 0 4
FE
M
(constante K)
(b) Totalização de pulsos escalonados
Fig. 4.19. Sistema de totalização de vazão
4. Desempenho do Instrumento
4.1. Introdução
A medição é o processo experimental de
atribuir números para as propriedades dos
objetos ou eventos no mundo real, de modo a
descreve-los quantitativamente. A medição é
uma descrição das propriedades do objeto, não
a descrição do objeto. A medição é a
comparação de uma quantidade desconhecida
com um valor padrão predeterminado adotado.
O resultado completo de uma medição inclui:
1. um número que mostra quantas vezes a
unidade padrão está contida na quantidade
medida e
2. a unidade de engenharia da quantidade,
3. a tolerância da medição, expressa por
limites de erro ou de incerteza.
Mede-se uma variável de processo, direta
ou indiretamente. O valor da variável medida
deve ser apresentado na unidade de
engenharia e não em termos de corrente
elétrica, sinal pneumático ou movimento
mecânico. O processo que inclui a variável
medida possui outras variáveis que podem
influir e perturbar a medição. Para se medir
uma variável, todas as outras variáveis que
interferem nela devem ser mantidas constantes
para não haver erro.
O instrumentista confia na folha de
especificação do fabricante onde estão
definidas a precisão e as características do
instrumento e deve proceder corretamente para
obter a medição confessável, seguindo as
instruções de operação e entendendo
corretamente os conceitos básicos associados.
O elemento sensor primário produz uma
saída que é função da variável medida,
segundo uma lei matemática conhecida. A
saída do elemento sensor pode ser um
deslocamento mecânico ou uma variável
elétrica, como tensão, corrente, resistência,
capacitância. O elemento sensor intrusivo
sempre perturba a variável medida, ou
extraindo ou adicionando energia. A
quantidade medida é sempre modificada pela
medição, tornando impossível a medição
perfeita e sem erro. O sensor é tanto melhor
quanto menos influenciar a variável medida.
Para o instrumento desempenhar sua
função de indicação, registro ou controle, é
necessário converter o sinal de saída em outro
mais manipulável e conveniente, mas
preservando a informação contida no sinal
original. O elemento de manipulação da
variável condiciona o sinal de saída do
elemento sensor para que o instrumento
desempenhe a sua função, preservando a
natureza física da variável medida.
O elemento de apresentação dos dados
depende da função do instrumento: indicação
pelo conjunto ponteiro escala ou através de
dígitos, registro pelo conjunto pena gráfico,
armazenamento em sistema digital.
A leitura feita pelo observador no elemento
apresentador dos dados possui erros inerentes
aos equipamentos e ao método da medição.
Toda leitura apresenta erro e possui uma
precisão.
A metrologia é a ciência da medição e é
considerada monótona e desinteressante por
muitos técnicos. Porém, ela é necessária e
felizmente existem metrologistas para definir e
monitorar os padrões.
4.2. Características do Instrumento
As características de desempenho do
instrumento são importantes pois elas
constituem a base para a escolha do
instrumento mais apropriado para a aplicação
especifica. O instrumento possui características
estáticas e dinâmicas.
Estático significa entradas e saídas
estacionárias e dinâmico quer dizer entradas e
saídas não estacionárias. Um sistema é
chamado de estático se sua relação
90
Instrumentos de Medição
entrada/saída é independente da velocidade de
variação da entrada. Todos sistemas físicos
eventualmente violam esta definição quando a
velocidade de variação da entrada aumenta.
Assim, o termo estático é usualmente
acompanhado por uma limitação que especifica
a faixa para a qual o sistema é estático, como a
faixa de freqüência estendendo de zero até
algum valor limite. Por exemplo, uma mola
mecânica opera com variação de entrada lenta
e relação força-deslocamento constante. Em
grandes variações da entrada, a massa da
mola se torna um fator importante e a mola não
se comporta mais como um dispositivo
estático.
Um sistemas é chamado dinâmico se sua
relação entrada-saída depende da taxa de
variação da entrada. O sistema dinâmico tem
armazenagem de energia e sua descrição
requer mais de uma equação diferencial. O
tempo de resposta de um sistema dinâmico é
caracterizado por sua constante de tempo e
freqüência natural. Os sistemas de
instrumentação são dinâmicos, mas eles são
projetados para ter constantes de tempo
menores e freqüências naturais maiores do que
as do sistema sendo medido. Por exemplo, em
um sistema de controle com realimentação
negativa, o tempo de resposta do elemento
sensor é projetado e selecionado de modo a
ser muito mais rápido que o sistema medido.
O comportamento transitório e dinâmico de
um instrumento é mais importante que o
estático. Os instrumentos raramente
respondem instantaneamente às variações da
variável medida, mas exibem um atraso, devido
a várias causas, como a inércia da massa, a
capacitância termal, elétrica e fluídica, a
resistência de transferência de energia. As
características dinâmicas do instrumento são: a
velocidade de resposta, a confiabilidade, o
atraso e o erro dinâmico. Os instrumentos
podem ter respostas dinâmicas de ordem zero
(potenciômetro com deslocamento), primeira
(termômetro com enchimento termal) e
segunda (balanço da mola).
As características estáticas são aquelas
consideradas quando as condições do
processo são constantes. Elas são
conseguidas através do processo de calibração
do instrumento e incluem a exatidão,
rangeabilidade e precisão. A precisão possui
os parâmetros constituintes de linearidade,
repetitividade, reprodutibilidade e sensitividade.
4.3. Exatidão
Conceito
O autor traduz o termo accuracy como
exatidão, embora já tenha sido criado o
neologismo de acurácia. Exatidão é o grau de
conformidade de um valor indicado para um
valor padrão reconhecidamente aceito ou valor
ideal. A exatidão medida é expressa pelo
desvio máximo observado no teste de um
instrumento sob determinadas condições e
através de um procedimento especifico. É
usualmente medida como uma inexatidão e
expressa como exatidão.
Valor Verdadeiro
O valor verdadeiro é o valor real atribuído à
quantidade. O valor verdadeiro da quantidade
nunca pode ser achado e não é conhecido. O
valor atribuído a uma quantidade somente será
conhecido com alguma incerteza ou erro. Na
prática, o valor verdadeiro é substituído pelo
valor verdadeiro convencional, dado por um
instrumento de medição padrão disponível.
Por exemplo, se um medidor é considerado
capaz de fornecer medições com erro menor
que ±1% do valor medido, ele pode ser
calibrado com um instrumento com erros
menores que ±0,1% do valor medido, na
mesma faixa. Neste caso, o segundo
instrumento fornece o valor verdadeiro
convencional. A coluna do algarismo
significativo duvidoso do instrumento calibrado
corresponde a um algarismo garantido no
padrão de calibração., Algumas normas (p. ex.,
ANSI/ASQC M1-1987, American National
Standard for Calibration Systems) e os
laboratórios de calibração (p. ex., NIST)
recomendam (mas não exigem) que o
instrumento padrão deva ter um erro de 4 a 10
vezes menor que o instrumento a ser calibrado.
O objetivo de toda medição é o de obter o
valor verdadeiro da variável medida e o erro é
tomado como a diferença entre o valor medido
e o valor verdadeiro. A exatidão é a habilidade
de um instrumento de medição dar indicações
equivalentes ao valor verdadeiro da quantidade
medida. A exatidão se relaciona com a
calibração do instrumento. Quando o
instrumento perde a exatidão e deixa de indicar
a média coincidente com o valor verdadeiro,
ele precisa ser calibrado
91
Instrumentos de Medição
Grande precisão
Pequena exatidão
Pequena precisão
Pequena exatidão
Pequena precisão
Grande exatidão
Grande precisão
Grande exatidão
Fig. 4.20. Precisão e exatidão
4.4. Precisão
Conceito
A precisão é um dos assuntos mais
importantes da instrumentação, embora seja
mal entendido. Sua importância é grande pelos
seguintes motivos:
1. a medição precisa das variáveis de
processo é um requisito para um
controle eficiente,
2. o termo é pobremente definido e muito
mal interpretado. Em inglês, há duas
palavras accuracy e precision que são
traduzidas indistintamente como
precisão para o português.
3. os conceitos de precisão (precision e
accuracy), rangeabilidade (rangeability
ou turn down), aferição, calibração e
manutenção nem sempre são bem
definidos,
4. há a tendência de alguns fabricantes, por
má fé ou por desconhecimento, em
expressar numericamente a precisão de
modo a parecer que seus produtos
apresentam uma precisão maior do que
real ou maior que a dos instrumentos
concorrentes.
Precisão (precision) é o grau de
concordância mútua e consistente entre várias
medições individuais, principalmente
relacionada com repetitividade e
reprodutibilidade. A precisão é uma medida do
grau de liberdade dos erros aleatórios do
instrumento. A precisão é a qualidade que
caracteriza um instrumento de medição dar
indicações equivalentes ao valor verdadeiro da
quantidade medida. A precisão está
relacionada com a qualidade do instrumento.
Quando o instrumento deteriora a sua precisão,
alargando a dispersão de suas medidas do
mesmo valor, ele necessita de manutenção. A
manutenção criteriosa do instrumento,
utilizando peças originais e conservando o
projeto original não melhora a precisão nominal
do instrumento, fornecida pelo fabricante
quando novo mas evita que ela se degrade e
ultrapasse os limites originais.
Exatidão e Precisão
É tentador dizer que se uma medição é
conhecida com precisão, então ela é também
conhecida com exatidão. Isto é perigoso e
errado. Precisão e exatidão são conceitos
diferentes.
A precisão é uma condição necessária para
a exatidão, porém, não é suficiente. Pode-se
ter um instrumento muito preciso, mas
descalibrado, de modo que sua medição não é
exata. Mas um instrumento com pequena
precisão, mesmo que ele forneça uma medição
exata, logo depois de calibrado, com o tempo
ele se desvia e não mais fornece medições
exatas. Para o instrumento ser sempre exato, é
necessário ser preciso e estar calibrado.
Fig. 4.21. Expressão da precisão
Por exemplo, um relógio de boa qualidade é
preciso. Para ele estar exato, ele precisa ter
sido acertado (calibrado) corretamente. Desde
que o relógio preciso esteja exato, ele marcará
as horas, agora e no futuro com um pequeno
92
Instrumentos de Medição
erro. Seja agora um relógio de má qualidade e
impreciso. Logo depois de calibrado, ele
marcará a hora com exatidão, porém, com o
passar do tempo, a sua imprecisão fará com
ele marque o tempo com grandes erros. Um
instrumento impreciso é também inexato.
Mesmo que ele esteja exato, com o tempo ele
se afasta do valor verdadeiro e dará grande
erro.
Outro exemplo é o odômetro de um
automóvel, que pode ter até seis algarismos
significativos para indicar a distância percorrida
através da contagem de rotações do eixo. A
exatidão de sua indicação depende de como as
rotações são contadas e de como as rotações
refletem a distância percorrida. O contador
pode não ter erros e ser exato porém a
distância percorrida depende, dentre outros
fatores, do diâmetro e do desgaste dos pneus.
Tolerância
Tolerância é o máximo afastamento
permissível de uma medição para o seu valor
verdadeiro ou nominal. A tolerância é a faixa
total que uma quantidade especifica é
permitida variar. Numericamente, tolerância é a
diferença algébrica entre o valor máximo e
mínimo dos limites de erros permitidos.
Por exemplo, a medição de temperatura
com erro de ±1 oC, tem a tolerância de 2 oC. A
tolerância da freqüência, cujo erro assimétrico
é dado por +2% e -5% é de 7%. Quando um
fabricante declara em sua especificação que a
resistência é de 100 Ω e com limites de erro de
±0.1 Ω, a tolerância é de 0,2 Ω.
No exemplo, em que o usuário compra um
lote de resistores de 100 Ω de um fornecedor
com tolerância de 0,4 Ω, haverá um limite de
±0,2 Ω de cada lado de 100 Ω. Quando ele
medir a resistência de cada resistor, a 20 oC,
ele achará valores diferentes entre si e do valor
cotado pelo fabricante de 100.0 Ω. Será obtida
uma faixa de valores tais como 99.8 - 99,9 100.0 - 100,1 e 100.2 Ω distribuídos
aleatoriamente em torno de 100.0. Assim, de
conformidade com os limites de erro
combinados, ele deve rejeitar todos os
resistores com valores menores que 99.8 e
maiores que 100.2 Ω.
O usuário do resistor tem duas escolhas:
1. ele pode projetar seu sistema de
medição usando o valor do fabricante de
100.0 Ω e aceitando que todos os
resistores tenham desvios tolerados de ±
0,2 ohm, e como conseqüência, haverá
um pequeno desvio no desempenho
ideal projetado. Esta é a prática mais
comum.
2. ele pode desenvolver um sistema de
medição muito preciso para medir cada
resistência do lote e só usar as
resistências com medidas iguais a 100,0
Ω. Isto teoricamente removeria o erro
devido a incerteza da resistência mas é
demorado e caro. E também continua
havendo uma incerteza residual no valor
da resistência, devido à precisão limitada
da medição.
Este fenômeno de dispersão dos valores em
torno de um valor esperado é encontrado em
qualquer lote de elementos iguais. Variações
significativas são encontradas em lotes de
resistores, capacitores, termopares,
termistores, strain-gages. Porém, em qualquer
caso, para um lote de elementos, pode-se
dizer que os valores dos parâmetros estão
estatisticamente distribuídos em torno do valor
médio.
A variabilidade natural das medições é
devida:
1. às diferenças de materiais e
procedimentos empregados na fabricado
de um produto
2. à execução de uma calibração. A
tolerância pode ser melhorada usandose vários pontos de calibração. Fornecer
a tolerância em um ponto é inadequado,
pois a tolerância aumenta quando se
afasta do ponto de calibração.
3. ao operador que faz a medição
4. às condições ambientais variáveis
4.5. Parâmetros da Precisão
Quando um fabricante define a precisão do
instrumento, ele está realmente definindo o
erro máximo possível quando o instrumento
estiver sendo usado sob condições definidas.
Para encontrar este erro máximo, o
instrumento é testado contra um padrão e a
precisão de cada ponto é calculada
teoricamente.
A precisão absoluta pode ser dada apenas
pela diferença entre o valor medido e o
verdadeiro:
precisão = valor medido - valor verdadeiro
A precisão relativa é um parâmetro mais útil
e é expressa em percentagem e definida pela
relação:
valor medido - valor verdadeiro
precisão =
× 100%
valor verdadeiro
O valor medido é o dado pelo instrumento e
o valor verdadeiro é a leitura do instrumento
padrão, com precisão muito maior que a do
instrumento de medição.
Repetitividade
93
Instrumentos de Medição
A repetitividade é a habilidade de um
medidor reproduzir as leituras da saída quando
o mesmo valor medido é aplicado a ele
consecutivamente, sob as mesmas condições
de uso (mesma variável, mesmo valor, mesmo
método, mesmo instrumento, mesmo local,
mesma posição, mesmo observador, mesmo
ambiente de contorno) e na mesma direção. A
repetitividade é calculada a partir de
sucessivas medições da variável, mantidas as
mesmas condições. Quanto mais próximos
estiverem os valores das medições
consecutivas da mesma entrada, maior é a
repetitividade do instrumento.
A repetitividade é a proximidade entre várias
medições consecutivas da saída para o mesmo
valor da entrada, sob as mesmas condições de
operação. É usualmente medida como não
repetitividade e expressa como repetitividade
em % da largura de faixa. A repetitividade não
inclui a histerese.
A repetitividade é um parâmetro necessário
para a precisão mas não é suficiente. O
instrumento preciso possui grande
repetitividade, porém, o instrumento com alta
repetitividade pode ser inexato, por estar
descalibrado.
Em controle de processo e atuação de
chaves liga-desliga, a repetitividade é mais
importante que a exatidão. Em sistemas de
custódia, envolvendo compra e venda de
produtos, a repetitividade e a exatidão são
igualmente importantes.
Reprodutibilidade
A reprodutibilidade é uma expressão do
agrupamento da medição do mesmo valor da
mesma variável sob condições diferentes
(método diferente, instrumento diferente, local
diferente, observação diferente), durante um
longo período de tempo.
A perfeita reprodutibilidade significa que o
instrumento não apresenta desvio, com o
decorrer do tempo, ou seja, a calibração do
instrumento não se desvia gradualmente,
depois de uma semana, um mês ou até um
ano.
Pode-se também entender a
reprodutibilidade como a repetitividade durante
um longo período de tempo. A reprodutibilidade
inclui repetitividade, histerese, banda morta e
drift.
Linearidade
A linearidade do instrumento é sua
conformidade com a linha reta de calibração.
Ela é usualmente medida em não-linearidade e
expressa como linearidade.
Quando a medição é não linear aparecem
desvios da linha reta de calibração. As formas
mais comuns são: desvio de zero, desvio da
largura de faixa e desvio intermediário,
geralmente provocado pela angularidade ou
pela histerese.
Quando a medição é uma linha reta não
passando pela origem, o instrumento necessita
de ajuste de zero. Em um sistema mecânico, o
desvio de zero é usualmente devido ao deslize
de um elo no mecanismo. Ele pode ser
corrigido pelo reajuste do zero do instrumento.
Em um instrumento eletrônico, o desvio de zero
é causado por variações no circuito devidas ao
envelhecimento dos componentes, mudanças
nas condições de contorno, como temperatura,
umidade, campos eletromagnéticos.
Quando a medição é uma linha reta,
passando pelo zero porém com inclinação
diferente da ideal, o instrumento necessita de
ajuste de largura de faixa ou de ganho. Um
desvio de largura de faixa envolve uma
variação gradual na calibração, quando a
medição se move do zero para o fim da
escala. Pode ser causada, em um sistema
mecânico, pela variação na constante da mola
de uma das partes do instrumento. Em um
instrumento eletrônico, o desvio de largura de
faixa pode ser provocado, como no desvio do
zero, por uma variação da característica de
algum componente.
Quando a medição se afasta da linha reta e
os valores da medição aumentando são
diferentes dos valores tomados com a medição
decrescendo, o instrumento apresenta erro de
histerese. Tais erros podem ser provocados
por folgas e desgastes de peças ou por erros
de angularidade do circuito mecânico do
instrumento. O desvio intermediário envolve um
componente do instrumento, alterando sua
calibração. Isto pode ocorrer quando uma parte
mecânica é super forçada ou pela alteração da
característica de um componente eletrônico. O
desvio no instrumento eletrônico ou
pneumático-mecânico pode ser compensado e
eliminado pela inspeção periódica e calibração
do instrumento.
A vantagem de se ter uma curva linear de
calibração é que a leitura do instrumento se
baseia somente um fator de conversão.
Quando a curva é não linear:
1. usa-se uma escala não-linear, com a
função matemática inversa (impossível
em indicadores digitais),
2. incorpora-se um circuito linearizador
antes do fator de conversão,
3. usa-se uma lógica para avaliar a relação
não linear e gravam-se os pontos na
memória digital (ROM, PROM) do
instrumento, fazendo-se a linearização
por segmentos de reta ou por
polinômios.
94
Instrumentos de Medição
B% f.e.
100
Instrumento linear
75
Calibração
ideal
50
Saída qo
Saída
-A% v.m.
∆qo
Sensitividade = ∆qo/∆qi
∆qi
Entrada qi
Tolerância total
25
Ponto em que A% do vm = B% f.e.
25
50
75
100
Entrada
Fig.4.22. Expressão da linearidade
Sensitividade
Sensitividade é a relação da variação do
valor de saída para a variação do valor de
entrada que a provoca, após se atingir o estado
de regime permanente. É expressa como a
relação das unidades das duas quantidades
envolvidas. A relação é constante na faixa, se o
instrumento for linear. Para um instrumento
não-linear, deve-se estabelecer o valor da
entrada. O inverso da sensitividade é o fator de
deflexão do instrumento.
O termo sensitividade pode ser interpretado
como a deflexão do ponteiro do instrumento
dividida pela correspondente alteração do valor
da variável. Por exemplo, se a parte usável da
escala é 10 cm, a sensitividade do voltímetro é
10 cm/200 volts ou 0,05 cm/volt. É obvio que
este indicador tem dificuldades para indicar
voltagens menores que 0,5 volt ou entre 150 e
150,5 volts. Quando se quer indicar 0,05 volts,
um medidor com uma faixa de 1 volt seria a
solução. A sensitividade, agora, é 10 cm/volt;
um sinal de 0,05 volt produziria uma deflexão
na indicação de 0,5 cm.
A sensitividade pode ser também a
habilidade de um instrumento responder e
detetar a menor variável na medição de
entrada. Neste caso, ela é também chamada
de resolução ou de discriminação. Não há
correlação entre a sensitividade e o erro.
Saída qo
0
Instrumento não linear
Entrada qi
Fig. 4.23. Expressão da sensitividade
Zona Morta
O efeito da zona morta aparece quando a
medição cai nas extremidades das escalas.
Quando se mede 100 volts, começando de 0
volt, o indicador mostra um pouco menos de
100 volts. Quando se mede 100 volts, partindo
de 200 volts, o ponteiro marca um pouco mais
de 100 volts. A diferença das indicações
obtidas quando se aproxima por baixo e por
cima é a zona morta. O erro de zona morta é
devido a atritos, campos magnéticos
assimétricos e folgas mecânicas.
Rigorosamente zona morta é diferente de
histerese, porém, a maioria das pessoas
consideram zona morta e histerese o mesmo
fenômeno.
Na prática, a aplicação repentina de uma
grande voltagem pode causar um erro de
leitura, pois o ponteiro produz uma
ultrapassagem (overshoot), oscila e estabiliza
em um valor. Se a última oscilação ocorreu
acima do valor, a indicação pode ser maior que
o valor verdadeiro; se ocorreu abaixo do valor,
a indicação pode ser menor que o valor
verdadeiro. O bom projeto do instrumento e o
uso de materiais especiais para suportes,
magnetos e molas, pode reduzir a zona morta.
Um modo efetivo para diminuir o efeito da zona
morta é tomar várias medições e fazer a média
delas.
Tempo de Resposta
A tempo de resposta é o intervalo que o
instrumento requer para responder a um sinal
95
Instrumentos de Medição
tipo degrau aplicado à sua entrada. O tempo de
resposta é desprezível quando o sinal varia
lentamente. Porém, quando o sinal varia
rapidamente e continuamente, o ponteiro fica
oscilando e nunca fica em equilíbrio, impedindo
a leitura exata da indicação. O tempo de
resposta depende da massa do ponteiro,
resistência da mola de retorno e da criação e
desaparecimento do campo magnético. O olho
humano também tem dificuldade de
acompanhar variações muito rápidas do
ponteiro.
Os artifícios para diminuir o tempo de
resposta do indicador incluem a diminuição do
ponteiro, uso de materiais mais leves, molas
com menores constantes, uso de displays
eletrônicos sem ponteiros (digitais).
Confiabilidade
Os instrumentos de medição podem falhar,
deixar de operar, operar intermitentemente ou
degradar prematuramente seu desempenho
quando exposto a condições desfavoráveis de
temperatura, pressão, umidade, fungos, frio,
maresia, vibração e choque mecânico.
Instrumento confiável é estável, autentico e
garantido. Esta expectativa de confiabilidade
pode parecer subjetiva, porém, a confiabilidade
pode ser definida, calculada, testada e
verificada.
Confiabilidade é a probabilidade de um
instrumento executar sua função prevista,
durante um período de tempo especificado e
sob condições de operação determinados. A
função pretendida identifica o que constitui o
não desempenho ou falha do instrumento. O
período especificado pode variar de uma
operação instantânea (fusível, disco de ruptura)
ou operações que duram anos ininterruptos. O
desempenho sob condições estabelecidas
refere-se às condições de operação e do
ambiente. As condições operacionais podem
depender do tipo do instrumento mas devem
ser completamente identificadas. As condições
de operação e do ambiente não podem causar
ou contribuir para o aparecimento de falhas.
Medições confiáveis devem ser válidas,
precisas, exatas e consistentes, por definição e
verificação. Medidas válidas são feitas por
procedimento corretos, resultando no valor que
se quer medir. Medidas precisas são repetitivas
e reprodutivas, com pouca dispersão em torno
do valor esperado. Medidas exatas estão
próximas do valor verdadeiro ideal. Medidas
consistentes são aquelas cujos valores ficam
cada vez mais próximos do valor verdadeiro,
quando se aumenta o número de medições
replicadas.
O metrologista, pessoa que procura fazer
medições com a máxima exatidão e precisão,
parece ter uma interpretação filosófica de
confiabilidade. Em sua determinação de
constantes fundamentais, ele procura um valor
verdadeiro mais fisicamente possível. O
instrumentista no campo ou no laboratório, tem
um enfoque operacional e procura o melhor
valor pratico possível. Melhor implica
simplesmente que a incerteza para uma dada
medição foi reduzida até um valor menor que
um número predeterminado. A incerteza é
normalmente expressa por uma faixa ou limites
de confiabilidade, dentro da qual é altamente
provável que os resultados da medição
estejam.
A confiabilidade da medição inclui o
intervalo de tempo durante o qual o
instrumento permanece calibrado. Ela é
comumente somada e expressa em MTBF
(mean time between failures - tempo médio
entre falhas).
O termo falha não significa necessariamente
o desligamento completo do instrumento, mas
que o instrumento deixou de manter sua
especificação de erro. O instrumento que
requer calibrações muito freqüentes é pouco
confiável, porque apresenta problema
estrutural, ou está mal aplicado ou é de má
qualidade. Quando a indicação de um
instrumento se afasta do valor verdadeiro, sua
calibração está variando com o tempo e sua
reprodutibilidade piora.
É difícil estimar a confiabilidade de dados
experimentais. Mesmo assim, se pode fazer
tais estimativas porque dados de confiabilidade
desconhecida são inúteis. Resultados que não
especialmente exatos podem ser valiosos se
os limites de incerteza são conhecidos.
Infelizmente, não há método simples para
determinar a confiabilidade dos dados com
certeza absoluta. Às vezes, é tão trabalhoso
garantir a qualidade dos resultados
experimentais, quanto coleta-los. A
confiabilidade pode ser avaliada de diferentes
modos. Padrões com certeza conhecida são
usados para comparações e calibrações. A
calibração de instrumentos aumenta a
qualidade dos dados. Testes estatísticos são
aplicados aos dados. Nenhuma destas opções
é perfeita e, no fim, sempre deve-se fazer
julgamentos para a exatidão provável dos
resultados.
Uma das primeiras questões a levantar
antes de fazer a medição é: qual é o máximo
erro tolerado no resultado? A resposta a esta
questão determina quanto tempo se gastará na
análise dos dados. Por exemplo, um aumento
de 10 vezes na confiabilidade pode resultar em
horas, dias ou semanas de trabalho adicional.
Ninguém pode pretender gastar tempo gerando
96
Instrumentos de Medição
medições que sejam mais confiáveis que o
necessário.
Estabilidade
O desempenho de um instrumento de
medição varia com o tempo. Geralmente, a
exatidão do instrumento se degrada com o
tempo. As especificações fornecidas pelo
fabricante se referem a um instrumento novo,
recém calibrado e testado nas condições de
laboratório, que são muito mais favoráveis que
as condições reais de processo. A estabilidade
do medidor é sua habilidade de reter suas
características de desempenho durante um
longo período de tempo. A estabilidade pode
ser expressa como taxa de desvio (drift rate),
tipicamente em % por ano ou ±unidade por
ano.
A estabilidade do instrumento é um
parâmetro básico para a determinação dos
intervalos de calibração do instrumento.
Facilidade de Manutenção
Nenhum instrumento opera todo o tempo
sem falha ou com o desempenho constante.
Todo instrumento, por melhor qualidade que
tenha, mesmo que não tenha peças moveis,
em algum tempo necessita de alguma inspeção
e manutenção. Normalmente, todas as plantas
possuem programas estabelecidos de
manutenção preventiva e preditiva. Mesmo
assim, freqüentemente, o instrumento requer
manutenção corretiva. O instrumento
microprocessado (inteligente) possui a
característica de auto-diagnose, quando ele
informa ao operador o afastamento do
desempenho do desejado.
A facilidade de manutenção de um
instrumento pode ser quantitativamente
calculada como o tempo médio gasto para seu
reparo. A combinação do tempo médio entre
falhas (MTBF) e o tempo médio para reparo
(MTTR) dá a disponibilidade do instrumento.
Instrumento muito disponível é aquele que
raramente se danifica (grande tempo médio
entre falhas) e quando isso ocorre, seu reparo
é rápido (pequeno tempo médio para reparo).
As condições que facilitam a manutenção
incluem:
1. acesso fácil,
2. conjuntos modulares substituíveis,
3. pontos de testes estrategicamente
localizados,
4. auto-diagnose dos defeitos,
5. identificação clara das peças na
documentação e no instrumento,
6. padronização e disponibilidade dos
componentes reservas,
7. número limitado de ferramentas e
acessórios de suporte,
8. compatibilidade e intercambiabilidade de
instrumentos e peças,
9. facilidade de manuseio, transporte,
armazenamento,
10. documentação técnica, marcações e
etiquetas completas e claras.
4.6. Especificação da Precisão
A precisão industrial de um instrumento
pode ser expressa numericamente de vários
modos diferentes:
1. percentagem do fundo de escala da
medição,
2. percentagem do limite superior da
capacidade do instrumento
3. percentagem da largura de faixa da
medição,
4. percentagem do valor real medido,
5. unidade de engenharia da variável.
Mesmo que os valores numéricos sejam
iguais para um determinado valor da medição,
a classe de precisão do instrumento pode ser
diferente ao longo de toda a faixa. Por
exemplo, o instrumento A, com precisão de ±1
% do fundo de escala tem desempenho de
precisão diferente do instrumento B, com
precisão de ±1 % do valor medido, ambos
calibrados para medir 0 a 10 L/s. O erro da
medição é igual somente para a vazão de 10
L/s, quando o valor medido é igual ao fundo da
escala.
Percentagem do Fundo de Escala
Os medidores que possuem os erros
devidos ao ajustes de zero e de largura de
faixa possuem a precisão expressa em
percentagem relativa ao fundo de escala. Os
instrumentos com erro dado em percentagem
do fundo de escala apresentam um erro
absoluto constante (valor da percentagem
vezes o fundo da escala) e o erro relativo
aumenta quando a medição diminui.
Esta classe de instrumentos aparece
principalmente na medição de vazão e um
exemplo é o erro da placa de orifício em
percentagem do fundo de escala.
Tab.4.1. Erros de instrumento com imprecisão % do F.E.
Vazão
L/s
100
50
30
10
1
Erro absoluto
L/s
1
1
1
1
1
Erro relativo
%
1
2
3
10
100
Por exemplo, na medição da vazão de 0 a
100 L/s, com a precisão de 1% do fundo de
escala, o erro absoluto é igual a 1% x 100 = 1
97
Instrumentos de Medição
L/s mas o erro relativo aumenta
hiperbolicamente (sentido rigoroso e não
figurado). Nesta aplicação, para se ter um erro
menor que 3%, deve-se medir apenas vazões
acima de 30 L/s.
Percentagem do limite superior do
instrumento (URL)
Atualmente, por causa do rigor metrológico
dos usuários, os fabricantes também
expressam a incerteza dos instrumentos em
percentagem do limite superior do instrumento
(URL - upper range limit ou URV - upper range
value). É uma filosofia mais realista, pois
expressa a incerteza do instrumento em função
de suas características de fabricante e não de
suas características de aplicação. A incerteza
de uma capsula de transmissor deve ser
função de como ela foi construída e não de
como ela é calibrada para uso. Como exemplo
numérico, se uma cápsula é feita para medir de
0 a 10 000 mm H20, sua imprecisão deve estar
associada a esta capacidade. Se a imprecisão
for de 0,1% desta faixa, sua incerteza é de 10
mm H20, quer ela seja calibrada para faixa de 0
a 100 ou 0 a 1000 ou 0 a 10 000 mm H20.
Obviamente, o erro relativo para a faixa
calibrada de 0 a 100 é de 10%, para a faixa de
0 a 1000 é de 1% e somente para a faixa de 0
a 10 000 mm H20 o erro é de 0,1%, o nominal.
Percentagem da largura de faixa
Quando a faixa de medição se refere a zero,
as precisões referidas à largura de faixa e ao
fundo de escala são idênticas. Quando a faixa
de medição é com zero elevado, a largura de
faixa é maior que o valor do fundo de escala e
quando a faixa de medição é com zero
suprimido, a largura de faixa é menor que o
valor do fundo de escala.
Numericamente, na medição de 0 a 100 oC,
as precisões de ±1% do fundo de escala e ±1%
da largura de faixa são ambas iguais a ±1 oC.
Para uma faixa de 20 a 100 oC, o erro de ±
1% do fundo de escala é de ±1 oC, porém, o
erro de ±1% da largura de faixa é de ±0,8 oC.
Para uma faixa de -20 a 100 oC, o erro de ±
1% do fundo de escala ainda é ±1 oC, porém, o
erro de ±1% da largura de faixa é de ±1,2 oC.
Em faixas com zero elevado ou zero
suprimido não se deve expressar a precisão
em percentagem do fundo de escala, mas sim
de largura de faixa. Por exemplo, na medição
de
-100 a 0 oC, o erro em fundo de escala se
refere a 100 e não a 0 oC.
não possuem erros devidos aos de zero, pois a
condição de zero é exatamente definida,
possuem a precisão expressa em percentagem
do valor medido. Os instrumentos com erro
dado em percentagem do valor medido
apresentam um erro relativo constante (valor
definido pela qualidade do instrumento) e o
erro absoluto aumenta quando a medição
aumenta.
Por exemplo, seja a medição da vazão de 0
a 100 L/s, com a precisão de 1% do valor
medido. O erro relativo da medição vale
sempre ±1%. Porém, o erro absoluto depende
do valor medido. O erro absoluto aumenta
linearmente com o valor da medição feita.
Teoricamente, este instrumento teria uma
rangeabilidade infinita, porém, na prática, ela é
estabelecida como de 10:1.
Tab. 4.2. Erros de instrumento com imprecisão % do V.M.
Vazão
L/s
100
50
30
10
1
Erro absoluto
L/s
1
0,5
0,3
0,1
0,01
Erro relativo
%
1
1
1
1
1
Unidade de Engenharia
É possível ter a precisão expressa na forma
do erro absoluto dado em unidades de
engenharia. Como o erro absoluto é constante,
o erro relativo se comporta como o erro do
instrumento com percentagem do fundo de
escala. Por exemplo, no termômetro com erro
absoluto de ±1 oC, independente da medição,
o erro relativo aumenta quando a medição
diminuir, exatamente como no instrumento com
percentagem do fundo de escala.
4.7. Rangeabilidade
Tão importante quanto à precisão e
exatidão do instrumento, é sua rangeabilidade.
Em inglês, há duas palavras, rangeability e
turndown para expressar aproximadamente a
extensão de faixa que um instrumento pode
medir dentro de uma determinada
especificação. Usamos o neologismo de
rangeabilidade para expressar esta
propriedade.
Percentagem do Valor Medido
Os medidores que possuem somente os
erros devidos ao ajustes de largura de faixa e
98
Instrumentos de Medição
100
90
80
70
100
100
90
90
80
60
70
60
10 :1
50
40
30
20
10
0
Linear
80
3 :1
70
60
50
40
30
20
0
Raiz Quadrática
50
30 :1
40
30
20
10
0
Logaritmica
Fig. 4.24. Escalas linear, raiz quadrática e logarítmica,
com diferentes rangeabilidades
Para expressar a faixa de medição
adequada do instrumento define-se o
parâmetro rangeabilidade. Rangeabilidade é a
relação da máxima medição sobre a mínima
medição, dentro uma determinada precisão.
Na prática, a rangeabilidade estabelece a
menor medição a ser feita, depois que a
máxima é determinada. A rangeabilidade está
ligada à relação matemática entre a saída do
medidor e a variável medida. Instrumentos
lineares possuem maior rangeabilidade que os
medidores quadráticos (saída do medidor
proporcional ao quadrado da medição).
Na medição de qualquer quantidade se
escolhe um instrumento pensando que ele tem
o mesmo desempenho em toda a faixa. Na
prática, isso não acontece, pois o
comportamento do instrumento depende do
valor medido. A maioria dos instrumentos tem
um desempenho pior na medição de pequenos
valores. Sempre há um limite inferior da
medição, abaixo do qual é possível se fazer a
medição, porém, a precisão se degrada e
aumenta muito.
Por exemplo, o instrumento com precisão
expressa em percentagem do fundo de escala
tem o erro relativo aumentando quando se
diminui o valor medido. Para estabelecer a
faixa aceitável de medição, associa-se a
precisão do instrumento com sua
rangeabilidade. Por exemplo, a medição de
vazão com placa de orifício, tem precisão de
±3% com rangeabilidade de 3:1. Ou seja, a
precisão da medição é igual ao menor que 3%
apenas nas medições acima de 30% e até
100% da medição. Pode-se medir valores
abaixo de 30%, porém, o erro é maior que ±
,3%. Por exemplo, o erro é de 10% quando se
mede 10% do valor máximo; o erro é de 100%
quando se mede 1% do valor máximo.
Não se pode medir em toda a faixa por que
o instrumento é não linear e tem um
comportamento diferenciado no início e no fim
da faixa de medição. Geralmente, a dificuldade
está na medição de pequenos valores. Um
instrumento com pequena rangeabilidade é
incapaz de fazer medições de pequenos
valores da variável. A sua faixa útil de trabalho
é acima de determinado valor; por exemplo,
acima de 10% (rangeabilidade 10:1), ou de
33% (3:1).
Em medição, a rangeabilidade se aplica
principalmente a medidores de vazão. Sempre
que se dimensiona um medidor de vazão e se
determina a vazão máxima, automaticamente
há um limite de vazão mínima medida, abaixo
do qual é possível fazer medição, porém, com
precisão degradada.
Em controle de processo, o conceito de
rangeabilidade é também muito usado em
válvulas de controle. De modo análogo, definese rangeabilidade da válvula de controle a
relação matemática entre a máxima vazão
controlada sobre a mínima vazão controlada,
com o mesmo desempenho. A rangeabilidade
da válvula está associada à sua característica
inerente. Na válvula linear, cujo ganho é
uniforme em toda a faixa de abertura da
válvula, sua rangeabilidade é cerca de 10:1. Ou
seja, a mesma dificuldade e precisão que se
tem para medir e controlar 100% da vazão, tem
se em 10%. A válvula de abertura rápida tem
uma ganho muito grande em vazão pequena,
logo é instável o controle para vazão baixa.
Sua rangeabilidade vale 3:1. A válvula com
igual percentagem, cujo ganho em vazão baixa
é pequeno, tem rangeabilidade de 100:1.
4.8. Precisão Necessária
Instrumentos de Processo
Quando se faz o projeto de uma planta, o
projetista deve estabelecer as precisões dos
instrumentos compatíveis com as
especificações do produto final. Nem sempre
isso é feito com critério técnico, pois essa
definição requer conhecimentos de projeto,
processo, instrumentação, controle e
estatística.
Por insegurança, há uma tendência natural
de se estabelecer as classes de precisão
maiores possíveis, sem nenhum critério
consistente com os resultados finais e até sem
saber se o instrumento com tal precisão é
comercialmente disponível. Por exemplo,
99
Instrumentos de Medição
pretender que uma indicação de temperatura
tenha incerteza de ±0,1 oC, quando o processo
requer incerteza de ±1 oC implica, no presente,
custo mais elevado do indicador e, no futuro,
problemas na operação da instrumentação com
recalibrações freqüentes e desnecessárias do
instrumento.
Mesmo depois de se especificar o
instrumento, não se tem o rigor de verificar se o
instrumento comprado e recebido está
conforme com a precisão especificada. Às
vezes, compra-se o instrumento com precisão
pior que a necessária e haverá problemas
futuros com a especificação do produto.
Também é freqüente comprar instrumento com
precisão melhor que a necessária. Neste caso,
além do obvio custo mais elevado, haverá
problemas técnicos de especificação do
produto, pois a tentativa de se obter um
controle melhor que o necessário é uma causa
de perda de controle. Também não há uma
preocupação de se ter instrumentos com
precisões iguais em uma malha de medição ou
no sistema total de controle. A precisão de uma
malha de instrumentos é sempre pior que a
precisão do instrumento da malha de pior
precisão. Assim, haverá desperdício de
dinheiro na compra de instrumentos com
precisão além da necessária.
Instrumentos de Teste e Calibração
A partir da classe de precisão dos
instrumentos de medição e controle da planta,
o pessoal de metrologia e de instrumentação
deve montar um laboratório de calibração e
aferição com padrões e instrumentos de
referência para calibrar os instrumentos de
processo. Os instrumentos de aferição e
calibração devem ter classe de precisão
consistente com a dos instrumentos a serem
aferidos e calibrados. Por exemplo,
recomenda-se que o instrumento padrão tenha
incerteza de 4 vezes a 10 vezes menor que a
do instrumento calibrado.
É freqüente a modernização dos
instrumentos de medição e controle da planta,
por exemplo, passando de instrumentação
pneumática para eletrônica analógica, de
eletrônica analógica para digital e até de
pneumática para eletrônica digital. Nestas
trocas de instrumentação, a classe de precisão
pode aumentar de fatores de 10 e até de 100.
Nestas situações, é obrigatória a modernização
e melhoria dos instrumentos de teste e de
calibração.
Tudo se resume a uma questão de
consistência:
1. O ideal é ter instrumentos de processo
com classe de precisão ±n% e
instrumentos de teste e calibração com
classe de ±0,n% (10 vezes melhor), pois
a incerteza do padrão não passa para o
instrumento calibrado.
2. Quando a precisão dos instrumentos de
processo tem classe de precisão de ±
0,n% e os instrumentos de calibração e
teste tem classe de ±n% (10 vezes pior),
tem-se a situação ridícula onde o padrão
é pior que o instrumento sendo
calibrado. A incerteza de ±n% passa
para os instrumentos de medição
durante a calibração. Não adiantou nada
investir muito dinheiro no instrumento de
medição e não investir no instrumento de
calibração.
3. Quando a precisão dos instrumentos de
processo tem classe de precisão de ±n%
e os instrumentos de calibração e teste
tem classe de ±n% (iguais), a incerteza
final das medições feitas com os
instrumentos calibrados é de ±2n% (±n%
devidos ao instrumento em si mais ±n%
devidos ao padrão de calibração.)
Estas comparações feitas entre as classes
de precisão dos instrumentos de medição com
os instrumentos padrão de trabalho se aplicam
exatamente para as outras interfaces da
escada de rastreabilidade da calibração, como
entre padrões de trabalho e padrões de
laboratório, entre padrões de laboratório e
padrões externos secundários, sucessivamente
até chegar aos padrões nacionais e
internacionais.
4.9. Relação entre padrão e
instrumento
A calibração correta de um instrumento
requer um padrão rastreado. A primeira
questão que aparece é: qual deve ser a relação
entre as precisões do instrumento e do
padrão?
A relação típica varia de 1:1 a 10:1. Uma
alta relação (10:1) entre o padrão e o item
calibrado (instrumento ou padrão inferior) irá
fornecer um alto grau de confiança da medição.
Por outro lado, uma baixa (1:1) irá refletir um
baixo grau de confiança da medição. O erro de
medição potencial pode ser minimizado com a
seleção adequada de relações entre o padrão
de calibração e o instrumento de medição e
teste.
Embora nenhuma norma obrigue, sempre
que possível, a seleção das relações de
precisão entre o comparador e o item que está
sendo calibrado deve ser maior que 2:1 e
preferivelmente maior que 4:1.
Uma relação de precisões de 1:1 reflete
uma área de 1% de incerteza e portanto todas
as medições que caem dentro de uma faixa de
100
Instrumentos de Medição
tolerância do item irão ficar na área da
incerteza. Não se tem dúvida para rejeitar um
valor medido para estes itens onde a medição
cai fora das tolerâncias permitidas.
É importante notar que a relação de
incertezas de 1:1 pode ou não indicar que os
itens calibrados sob estas condições estão de
conformidade com as tolerâncias prescritas.
Uma relação de incertezas de 1:1 pode não
fornecer a confiança necessária para a
medição. Além disso, ela pode requerer ações
corretivas e aumentar os custos da qualidade.
Uma relação de precisões de 4:1 reflete uma
área de aceitação de 75% e uma área de
incerteza de 25%. Uma relação de precisões
de 10:1 reflete uma área de aceitação de 90%
e uma área de incerteza de 10%. O uso da
relação 10:1 ou maior irá fornecer uma maior
confiança na medição e reduzirá o erro
potencial da medição.
Quando as medições caem dentro da área
de aceitação, a confiança da medição pode ser
alcançada. Porém, quando as medições caem
dentro da área da incerteza, uma decisão para
aceitar ou rejeitar uma medição pode ser
questionável.
Equipamento de medição com um alto nível
de precisão irá ajudar grandemente o técnico
em tomar a decisão correta e aceitar ou rejeitar
leituras medidas.
O técnico deve assegurar que as relações
de precisões entre o instrumento de medição e
teste e a tolerância do produto e entre o padrão
e o instrumento são adequadas para o objetivo
pretendido. Uma relação maior que 4:1 é
aceitável. Porém, uma relação de 10:1 ou
maior é recomendada, sempre que possível.
Quando as medições caem dentro da área de
incerteza, uma decisão deve ser tomada com
relação ao impacto nas condições de fora de
tolerância.
Os fatores para determinar as relações de
precisões são:
R = relação
TP = tolerância do produto
M&TAT = tolerância da precisão do
equipamento de medição e teste
SAT = tolerância da precisão do padrão
secundário
PAT = tolerância da precisão do padrão
primário
Seleção da relação
a. Tolerância do produto do fabricante =
0,005”
b. M&TAT = 0,001”
c. SAT = 0,000 1”
d. PAT = 0,000 004”
Relação entre tolerância do instrumento e
tolerância do produto:
R=
PT
0,005"
=
M & TAT 0,001"
= 5:1 (nominal) = relação
Relação entre padrão secundário da
medição e equipamento de teste e medição:
R=
M & TAT
0,001"
=
SAT
0,0001"
= 10:1 (nominal) = relação
Relação entre padrão primário e padrão
secundário:
R=
SAT
0,000 1"
=
PAT 0,000 004"
= 25:1 (nominal) = relação
Tolerância do item = ± 0,001”
Discriminação do comparador:
Tolerância ( ± ) T 0,001"
= =
= 0,001"
Relação
R
1
101
Instrumentos de Medição
Relação 1:1
Relação 4:1
Tolerância do item = ± 0,001”
Discriminação do comparador:
Comparador
0,001
0,001
Tolerância
Tolerância ( ± ) T 0,001"
= =
= 0,000 25"
Relação
R
4
-
+
Área de
incerteza
0,001”
0,001”
0,0015”
0,00025”
0
Linha vertical acima do zero representa o
tamanho nominal de uma característica
Fig. 4.26. Exemplo de uma relação 1:1
Comentários:
1. A área de incerteza é igual à
precisão do comparador. No caso, a
área de incerteza é total e a área de
aceitação é zero.
2. Todas as medições caem na área
de incerteza e sempre deve se
considerar o seu impacto nas
tolerâncias permitidas.
3. Por exemplo, uma tolerância
permissível para um diâmetro de 1 “
é ±0,001”:
a) Medição real:
1,001’
b) Área de incerteza:
0,001”
c) Discriminação permitida ±0,001”
4. Deste modo, a medição é
considerada estar entre 1,099” e
1,001”
Conclusão: a medição pode ser aceita em
1,099” ou rejeitada em 1,001”.
Área de incerteza
Área de aceitação
Fig. 4.27. Exemplo de uma relação 4:1
Comentários:
1. A área de incerteza é igual à precisão
do comparador.
2. Quando as medições caem na área de
incerteza, deve-se verificar o seu
impacto nas tolerâncias permitidas.
3. Por exemplo, uma tolerância
permissível para um diâmetro de 1 “ é
±0,001”:
a) Medição real:
1,001’
b) Área de incerteza:
0,000 25”
c) Discriminação permitida ±0,000
25”
d) Deste modo, a medição é
considerada estar entre 1,000
75” e 1,00125”
Conclusão: a medição pode ser aceita em
1,000 75” ou rejeitada em 1,00125”.
102
Instrumentos de Medição
Relação 10:1
Tab.4.3. Relações de incertezas entre tolerâncias do
produto e o instrumento de medição e teste
Tolerância do item = ± 0,001”
Discriminação do comparador:
Tolerância ( ± ) T 0,001"
= =
= 0,000 1"
Relação
R
10
Comparador
0,001”
0,001”
0,0018”
0,001”
0,001”
Área de
aceitação
Área de
incerteza
Fig. 4.28. Exemplo de uma relação 10:1
Comentários:
1. A área de incerteza é igual à precisão
do comparador.
2. Quando as medições caem na área de
incerteza, deve-se verificar o seu
impacto nas tolerâncias permitidas.
3. Por exemplo, uma tolerância
permissível para um diâmetro de 1 “ é
±0,001”:
Medição real:
1,001’
Área de incerteza:
0,000 1”
Discriminação permitida ±0,000 1”
Deste modo, a medição é considerada
estar entre 1,000 9” e 1,001 1”
Conclusão: a medição pode ser aceita em
1,000 9 ” ou rejeitada em 1,0011”.
Relação Discriminação do
1:1
2:1
3:1
4:1
5:1
6:1
7:1
8:1
9:1
10:1
50:1
100:1
comparador
0,001 000”
0,001 500”
0,001 333”
0,001 250”
0,001 200”
0,001 167”
0,001 143”
0,001 125”
0,001 110”
0,000 100”
0,000 020”
0,000 010”
Área de
incerteza
100%
50%
33%
25%
20%
16%
14%
13%
11%
10%
2%
1%
Área de
aceitação
0%
50%
67%
75%
80%
84%
86%
87%
89%
90%
98%
99%
As condições de fora de tolerância do
padrão e do instrumento são colocadas em três
categorias gerais:
Relação
padrão e
/intrumento
Impacto nas exigências da precisão
4:1 a 10:1 ou A adequação do padrão e instrumento
maior
será mantida satisfatoriamente. Nenhuma
ação é necessária.
2:1 a menor Quando a precisão do instrumento
que 4:1
deteriora da condição A para B, investigar
os fatores aplicáveis abaixo.
Relação
Quando a precisão do instrumento
menor que
deteriora para a condição C, há um
2:1
grande impacto nas exigências de
precisão do padrão e instrumento. Está é
uma condição importante que requer
ação corretiva imediata. Investigar todos
os fatores mostrados abaixo.
103
Instrumentos de Medição
10:1
9:1
8:1
7:1
Área de
aceitação
Área de incerteza
6:1
5:1
4:1
3:1
2:1
1:1
0
10
20
30
40
50
60
70
80
Fig. 4.29. Curva representativa para uma tolerância de produto de 0,001”
90
100
104
Instrumentos de Medição
4.10. Projeto, Produção e Inspeção
A especificação de produto ou instrumento
envolve as áreas de projeto, produção e
inspeção. O projetista pensa no produto ideal,
o homem da produção quer a máxima
produção possível e o inspetor julga se o
produto final está dentro das especificações
nominais. Cada uma dessas pessoas tem uma
visão diferente da tolerância da especificação
do produto.
O projetista trata de condições ideais,
assumindo instrumentos e equipamentos
novos, operadores bem treinados, supervisão
competente, instrumentos calibrados, matérias
primas dentro das especificações nominais. A
partir desta visão, suas tolerâncias são
pequenas e às vezes, não atingíveis na prática
com o grau de economia do processo
industrial. Pode ser até que as condições ideais
do processo possam ser conseguidas durante
alguma parte do processo mas nunca por longo
período de tempo.
O homem de produção sabe, de sua
experiência prática, que o operador falha, a
matéria prima não é constante, o equipamento
não está ajustado corretamente, o instrumento
perde a calibração e tudo isso contribui para o
produto final se afastar das especificações
nominais. Para isso ocorrer menos
freqüentemente, ele aceita ou estabelece
tolerâncias maiores. Ele faz o melhor que pode,
mas nem sempre ele avalia como ele pode
melhorar o que ele já faz. Sendo humano e sob
pressão para produzir o máximo possível, ele
se limita a fazer o que ele acha que é o melhor.
Entre esta briga de foice no escuro ainda há
o inspetor do produto. Psicologicamente, o
inspetor tenderá a uma posição política de
compromisso. Quando o inspetor escuta o
operador que trabalha no chão de fabrica, ele
será informado que a conformidade com as
tolerâncias irá parar a produção e que 0,1% a
mais não irá fazer nenhuma diferença prática.
Quando o inspetor escuta o projetista que
trabalho no ar condicionado do escritório, ele
será informado que a produção deverá produzir
de conformidade com a especificação nominal.
Não se pode relaxar a inspeção, pois assim
ela perderia sua validade. Porém, as
especificações das tolerâncias devem ser
estabelecidas com critério técnico, resultando
em produtos usáveis e economicamente
viáveis.
Quando se tem tolerâncias pequenas que
são desrespeitadas sem nenhuma
conseqüência grave, cria uma cultura nociva de
falta de respeito a especificações por parte do
pessoal de produção e inspeção. Às vezes, é
importante que as especificações criticas sejam
cumpridas. Se o pessoal da inspeção e
produção tende a não respeitar as
especificações do projeto, porque elas são
difíceis de serem satisfeitas e por que ele não
entende as razões do rigor, este pessoal
igualmente não respeitará as especificações
criticas e não críticas.
É muito comum se ouvir é trabalho do
projetista estabelecer o que é necessário; é
trabalho do inspetor testar e aceitar os
procedimentos para descobrir se as
especificações foram cumpridas; deixe cada
lado fazer seu próprio trabalho. Isto é errado! O
projetista deve conhecer o resultado das
inspeções e as capacidades da produção e
usar estas informações para alterar ou manter
as especificações originais. No ambiente
competitivo e de qualidade atual deve haver
trabalho de equipe. Resumindo:
1. todas as tolerâncias das especificações
devem ser cumpridas.
2. tolerância muito rigorosa aumenta o
custo final do produto.
3. tolerância pouco rigorosa também
aumenta o custo final do produto, por
causa de muitos refugos e retrabalho.
4. tolerância muito rigorosa é difícil de ser
conseguida; requer pessoal de operação
treinado, instrumentos calibrados,
equipamentos ajustados, matérias
primas constantes e processos de
produção mais complexos.
5. as tolerâncias podem ser diferentes;
instrumentos críticos requerem
tolerâncias mais rigorosas, instrumentos
não críticos podem ter tolerâncias menos
rigorosas.
6. as tolerâncias devem ser coerentes entre
si; instrumentos de mesma malha de
medição devem ter tolerâncias de
mesma ordem de grandeza.
7. a tolerância final do malha não será
melhor que a maior tolerância de algum
instrumento, durante todo o tempo.
8. as tolerâncias devem ser estabelecidas
de comum acordo e envolvendo o
pessoal de projeto, produção e inspeção.
9. deve haver controle estatístico do
processo para avaliar as tolerâncias,
mantendo-as, aumentando-as ou
diminuindo-as em função dos resultados
obtidos.
105
Instrumentos de Medição
5. Erros da Medição
5.1. Introdução
É impossível fazer uma medição sem erro
ou incerteza. Na realidade, o que se procura é
manter os erros dentro de limites toleráveis e
estimar seus valores com exatidão aceitável.
Cada medição é influenciada por muitas
incertezas, que se combinam para produzir
resultados espalhados. As incertezas da
medição nunca podem ser completamente
eliminadas, pois o valor verdadeiro para
qualquer quantidade é desconhecido. Porém, o
valor provável do erro da medição pode ser
avaliado. É possível definir os limites dentro
dos quais o valor verdadeiro de uma
quantidade medida se situa em um dado nível
de probabilidade.
O erro é a diferença algébrica entre a
indicação e o valor verdadeiro convencional. O
valor verdadeiro é o valor da variável medida
sem erro, ideal. Erro é a quantidade que deve
ser subtraída algebricamente da indicação para
dar o valor ideal.
Se A é um valor exato e a o valor
aproximado medido, então o erro é o desvio do
valor aproximado do exato. Matematicamente,
e=A-a
Sob o ponto de vista matemático, o erro
pode ser positivo ou negativo. Um erro positivo
denota que a medição é maior que o valor
ideal. O valor ideal é obtido subtraindo-se este
valor do indicado. Um erro negativo denota que
a medição do instrumento é menor que o valor
ideal. O valor ideal é obtido somando-se este
valor ao indicado.
Por exemplo, o comprimento de (9,0 + 0,2 0,1) mm significa que o valor verdadeiro de 9,0
mm possui um erro para mais de 0,2 mm e um
erro para menos de 0,1 mm. Assim, o
comprimento deve estar entre 8,9 e 9,2 mm.
Neste caso os erros são assimétricos. Na
maioria dos casos os erros são simétricos de
modo que o valor medido é dado por
(A ± e) = a.
5.2. Tipos de Erros
Os erros da medição e do instrumento
podem ser classificados sob vários critérios,
como expressão matemática, resposta no
tempo, responsabilidade, causa e
previsibilidade. É possível haver grande
superposição de erros. Por exemplo, um erro
pode ser simultaneamente estático,
sistemático, previsível, intrínseco ao
instrumento e devido ao ajuste de zero.
Quanto à expressão matemática, os erros
podem ser classificados como
1. absolutos
2. relativos
Quanto ao tempo, os erros podem ser
1. dinâmicos
2. estáticos
Quanto à origem, os erros estáticos podem
ser classificados como
1. grosseiros
2. sistemáticos
3. aleatórios
Exatidão
Precisão
Espúrio
Fig. 4.30 - Erros sistemático, aleatório e espúrio
Os erros sistemáticos podem ser divididos
em
1. intrínsecos ao instrumento
2. influência
3. modificação
Os erros intrínsecos podem ser
determinados
indeterminados
Por sua vez, os erros do instrumento determinados
podem ser:
zero
largura de faixa ou ganho
angularidade
quantização
Os erros indeterminados poder ser devidos
a
uso e desgaste
atrito
inércia
Os erros de influência podem ter origem:
mecânica
elétrica
física
química
106
Instrumentos de Medição
5.3. Erro Absoluto e Relativo
Erro absoluto
Erro absoluto é simplesmente o desvio da
medição, tomado na mesma unidade de
engenharia da medição. No exemplo de 9,0 ±
0,1 mm, o erro absoluto é de 0,1 mm. O erro
absoluto não é uma característica conveniente
da medição. Por exemplo, o erro absoluto de 1
mm pode ser muito pequeno ou muito grande,
relação ao comprimento medido.
Por exemplo,
1 mm de erro em 100 mm vale 1%
1 mm de erro em 10 mm vale 10%
1 mm de erro em 1 mm vale 100%
Erro relativo
A qualidade de uma medição é melhor
caracterizada pelo erro relativo, tomado como
er =
e
× 100%
a
onde
er é o erro relativo,
e é o erro absoluto
a é o valor da grandeza medida
O erro relativo é adimensional e geralmente
expresso em percentagem.
A precisão entre ±1% e ±10% é geralmente
suficiente para a maioria das aplicações
residenciais e até industriais; em aplicações
científicas tem-se ±0,01 a ±0,1%.
O erro absoluto pode assumir valores
negativos e positivos, diferente do valor
absoluto do erro, que assume apenas valores
positivos.
5.4. Erro Dinâmico e Estático
Erro dinâmico
Erro dinâmico é aquele que depende do
tempo. Quando uma medição altera seu valor
significativamente durante a medição, ela pode
ter erros dinâmicos.
O erro dinâmico mais comum é devido ao
tempo de resposta ou tempo característico do
instrumento, quando há atrasos na variável
medida. O erro dinâmico pode desaparecer
naturalmente com o transcorrer do tempo ou
quando as condições de operação se
igualarem às condições especificadas para
uso.
Por exemplo, quando se faz a medição de
temperatura sem esperar que o sensor atinja a
temperatura medida, há erro dinâmico que
desaparece quando a temperatura do sensor
for igual a temperatura do processo que se
quer medir. Se a temperatura leva 3 minutos
para atingir o valor final medido, qualquer
medição antes deste tempo apresentará erro
dinâmico. Se a temperatura estiver subindo,
todas as medições antes de 3 minutos serão
menores que a medida.
Quando se faz a medição de um
instrumento eletrônico, sem esperar que ele se
aqueça e se estabilize, tem-se também um erro
de medição que desaparecerá quando houver
transcorrido o tempo de aquecimento do
instrumento.
O instrumento pode apresentar erro de
calibração a longo prazo, devido ao
envelhecimento dos componentes. Tais erros
dinâmicos são chamados também de desvios
(drift). Porem, neste caso, os tempos
envolvidos são muito longos, como meses ou
anos.
O erro dinâmico pode ser eliminado,
conhecendo-se os tempos de resposta do
instrumento, constante de tempo da variável
medida e condições previstas para entrada em
regime permanente do instrumento medidor.
Esse tipo de erro, que pode ser grosseiro e
facilmente evitável, pode ser considerado como
um erro do operador.
Uma questão associada com o erro
dinâmico é o atraso de bulbos e poços de
temperatura e selos de pressão. Teoricamente,
um bulbo e um poço de temperatura apenas
introduzem atraso na medição da temperatura.
Se a temperatura fosse constante, depois do
tempo de atraso, a temperatura com o bulbo e
o poço seria igual à temperatura sem bulbo e
poço. Como há uma variabilidade natural da
temperatura constante, na prática a colocação
de bulbo e poço introduzem erro de medição. A
questão é análoga com a medição de pressão
e o selo. Na prática, o selo de pressão introduz
um erro de medição. Como regra geral, tudo
que é colocado na malha de medição introduz
uma parcela do erro final.
Erro Estático
Erro estático é aquele que independe do
tempo. Quando uma medição não altera seu
valor substancialmente durante a medição, ela
está sujeita apenas aos erros estáticos.
Os erros estáticos são de três tipos
diferentes:
1. erros grosseiros
2. erros sistemáticos
3. erros aleatórios
107
Instrumentos de Medição
5.5. Erro Grosseiro
O erro grosseiro é também chamado de
acidental, espúrio, do operador, de confusão,
de lapso, freak ou outlier. A medição com um
erro grosseiro é aquela que difere muito de
todas as outras do conjunto de medições.
Muitas medições requerem julgamentos
pessoais. Exemplos incluem a estimativa da
posição do ponteiro entre duas divisões da
escala, a cor de uma solução no final de uma
analise química ou o nível de um liquido em
uma coluna liquida. Julgamentos deste tipo
estão sujeitos a erros uni direcionais e
sistemáticos. Por exemplo, um operador pode
ler o ponteiro consistentemente alto; outro pode
ser lento em acionar um cronômetro e um
terceiro pode ser menos sensível às mudanças
de cores. Defeitos físicos são geralmente
fontes de erros pessoais determinados.
Uma fonte universal de erro pessoal é o
preconceito. A maioria das pessoas,
independente de sua honestidade e
competência, tem uma tendência natural de
estimar as leituras da escala na direção que
aumenta a precisão em um conjunto de
resultados. Quando se tem uma noção
preconcebida do valor verdadeiro da medição,
subconsciente mente o operador faz os
resultado cair próximo deste valor.
A polarização é outra fonte de erro pessoal
que varia consideravelmente de pessoa para
pessoa. A polarização mais comum encontrada
na estimativa da posição de um ponteiro em
uma escala envolve uma preferência para os
dígitos 0 e 5. Também prevalente é o
preconceito de favorecer pequenos dígitos
sobre grandes e números pares sobre os
ímpares.
A vantagem dos instrumentos digitais sobre
os analógicos é que sua leitura independe de
julgamentos, eliminando-se a polarização.
Porém, todo indicador digital apresenta erro de
quantizacao, devido à sua natureza discreta.
A maioria dos erros pessoais pode ser
minimizada pelo cuidado e auto-disciplina. É
um bom hábito verificar sistematicamente as
leituras do instrumento, os fatores e os
cálculos.
A maioria dos erros grosseiros é pessoal e
é causada pela falta de atenção, preguiça ou
incompetência. Os erros grosseiros podem ser
aleatórios mas ocorrem raramente e por isso
eles não são considerados como erros
indeterminados. Fontes de erros grosseiros
incluem: erros aritméticos, transposição de
números em dados de registro, leitura de uma
escala ao contrário, troca de sinal e uso de
uma escala errada. A maioria dos erros
grosseiros afeta apenas uma medição. Outros,
como o uso de uma escala errada, afetam todo
o conjunto das medições replicadas.
Erros grosseiros podem também ser
provocados pela interrupção momentânea da
alimentação dos instrumentos.
O erro grosseiro causado pelo operador é
devido a enganos humanos, tais como
1. leitura sem cuidado,
2. anotação equivocada,
3. aplicação errada de fator de correção,
4. engano de fator de escala e de
multiplicação,
5. extrapolação ou interpolação
injustificada,
6. arredondamento mal feito e
7. erros de computação.
Alguns erros de operador podem ser
sistemáticos e previsíveis, quando provocados
por vicio ou procedimento errado do mesmo
operador. Maus hábitos podem provocar erros
sistemáticos. A solução é colocar mais de uma
pessoa para fazer as medições. Por exemplo, o
erro de paralaxe da leitura é devido à postura
errada do observador frente a escala do
instrumento.
É um erro grosseiro confundir números e
errar a posição do marcador decimal. É
catastrófico ler, por exemplo, 270 graus em vez
de 27,0 graus no mapa de vôo de um avião (já
houve um acidente de aviação, no norte do
Brasil, onde, segundo o laudo da companhia
aérea, o comandante cometeu esse erro
grosseiro).
Alguns técnicos acham que fazer 10
medições da mesma grandeza, nas mesmas
condições, com o mesmo instrumento e lidas
pela mesma pessoa é inútil, pois todos os
valores vão ser iguais. Elas desconhecem a
variabilidade da constante. Ou seja, na
natureza até as constantes variam levemente
em torno do valor constante. Em tabelas de
calibração, é freqüente encontrar números
inventados e repetidos, sem que o
instrumentista tenha feito realmente as
medições. A rotina pode levar o operador a não
fazer efetivamente as leituras e a inventá-las,
pois o processo está normal e os valores
esperados já são conhecidos.
Os erros grosseiros normalmente se
referem a uma única medição, que deve ser
desprezada, quando identificada. Ele é
imprevisível e não adianta ser tratado
estatisticamente.
O erro grosseiro ou de operação pode ser
evitado através de
1. treinamento,
2. maior atenção,
3. menor cansaço,
4. maior motivação e
5. melhoria nos procedimentos.
108
Instrumentos de Medição
Erro sistemático é também chamado de
consistente, fixo, determinável, previsível,
avaliável e de polarização (bias). As
características do erro sistemático são as
seguintes:
1. se mantém constante, em valor
absoluto e sinal quando se fazem
várias medições do mesmo valor de
uma da variável, sob as mesmas
condições,
2. varia de acordo com uma lei definida
quando as condições variam,
3. é devido aos efeitos quantificáveis que
afetam a todas as medições
4. é devido a uma causa constante,
5. é mensurável
6. pode ser eliminado pela calibração.
Os erros sistemáticos podem ser constantes
ou dependentes do valor da variável medida. O
erro determinado constante independe do valor
da quantidade medida. Os erros constantes se
tornam mais sérios quando o valor da
quantidade medida diminui, pois o erro relativo
fica maior. O erro proporcional aumenta ou
diminui na proporção do valor da quantidade
medida. Uma causa comum de erros
proporcionais é a presença de contaminantes
na amostra.
Os erros sistemáticos causam a média de
um conjunto de medições se afastar do valor
verdadeiro aceitável. O erros sistemáticos
afetam a exatidão dos resultados. Os erros
sistemáticos podem ser devidos
1. aos instrumentos,
2. às condições de modificação e
3. às condições de interferência do
ambiente.
Sob o ponto de vista estatístico, a
distribuição dos erros aleatórios é retangular,
onde o erro é constante em toda a faixa de
medição.
Erro Inerente ao Instrumento
Os erros sistemáticos inerentes ao
instrumento podem ser determinados ou
indeterminados. Os erros sistemáticos do
instrumento determinados são devidos
principalmente à calibração. Como estão
relacionados à calibração, eles podem se
referir aos pontos de zero, largura de faixa e
não-linearidades provocadas pela angularidade
dos mecanismos.
Os erros do instrumento indeterminados são
inerentes aos mecanismos de medição, por
causa de sua estrutura mecânica, tais como os
atritos dos mancais e rolamentos dos eixos
móveis, a tensão irregular de molas, a redução
ou aumento da tensão devido ao manuseio
incorreto ou da aplicação de pressão
excessiva, desgaste pelo uso, resistência de
contato, atritos e folgas.
Os erros sistemáticos do instrumento
determinados e devidos à calibração podem se
referir a erro de
1. determinação,
2. hipótese
3. histórico
4. zero
5. largura de faixa
6. angularidade
7. quantização.
O erro de determinação resulta da
calibração incorreta do instrumento ou do
cálculo inadequado com os dados obtidos.
O erro de hipótese aparece quando se
espera que a medição siga uma determinada
relação característica diferente da real.
O erro histórico são resultantes do uso, do
desgaste, do envelhecimento dos materiais, de
estragos, de má operação, de atritos, de folgas
nos mecanismos e nas peças constituintes do
instrumento.
Erro de largura de faixa (span)
O erro de largura de faixa (span) ou de
sensitividade do instrumento ocorre quando a
curva de resposta tem inclinação diferente da
ideal. Em outras palavras, o instrumento está
com erro associado ao seu ganho ou
sensitividade. O erro de largura de faixa é
eliminado através do ajuste correspondente.
Instrumento que possui apenas erro de
largura de faixa possui precisão expressa em
percentagem do valor medido.
100,5%
100
Saída
5.6. Erro Sistemático
99,5%
75
Calibração
ideal
50
±0,5% valor medido
25
0
25
50
75
100
Vazão
Fig. 4.31 - Erro de largura de faixa (span)
109
Instrumentos de Medição
PADRÃO
Rastreabilidade
MENSURAND
Calibração
Valor verdadeiro
Resolução
INSTRUMENTO
Valor verdadeiro
convencional
Medição
Repetitividade
Reprodutibilidade
Erro
Sistemático
Aleatório
Exatidão
Precisão
Incerteza
Fig. 4.32. Terminologia da medição
110
Instrumentos de Medição
ERROS DO INSTRUMENTO
Fonte
Tempo
Sistemáticos
Aleatórios
Dinâmicos
Estáticos
Intrínsecos
(irreversíveis)
Influência
(reversíveis)
Modificação
(compensados)
Indeterminados
Determinados
Mecânicos
Zero
Uso
Elétricos
Largura de faixa
Desgaste
Físicos
Atrito
Químicos
Angularidade
Quantificação
Contato
Fig. 4.33. Classificação dos erros do instrumento
Erros de
modificação
Sensor
de X
Erros de
influência
Display
Condicionamento
Sinal
Sinal
Variáveis
Y, Z
Fig. 4.34. Erros de modificação e de influência
111
Instrumentos de Medição
Erro de zero
O erro de zero ocorre quando a curva de
calibração não passa pela origem (0, 0). O erro
ou desvio de zero pode eliminado ou reduzido
pelo ajuste correspondente no potenciômetro
ou parafuso de zero. Há instrumentos, como o
ohmímetro, que possui ajuste de zero para ser
atuado antes de cada medição. Outros
instrumentos possuem erro de zero gerado
pela variação da temperatura ambiente, como
instrumento digital eletrônico.
Instrumento que possui erro de zero possui
precisão expressa em percentagem do fundo
de escala.
Saída
100
75
Calibração
ideal
50
±0,5% fundo escala
25
0
25
50
75
100
Vazão
Fig. 4/35 - Erro de zero do instrumento
Erro de linearidade
Muitos instrumentos são projetados para
fornecer uma relação linear entre uma entrada
estática aplicada e valores indicados da saída.
A curva de calibração estática tem a forma
geral:
yL = a 0 + a1x
(1.7)
onde a curva yL(x) fornece um valor de saída
previsível baseado na relação linear entre x e
y. Porém, na vida real, o comportamento linear
verdadeiro só é conseguido aproximadamente.
Como resultado, as especificações do
instrumento de medição usualmente fornecem
uma expressão para a linearidade esperada da
curva de calibração estática para o
instrumento. A relação entre yL(x) e o valor
medido y(x) é uma medida do comportamento
não linear do sistema:
eL(x) = y(x) - yL(x)
onde eL(x) é o erro de linearidade que aparece
por causa do comportamento real e não linear
do sistema. Para um sistema que é
teoricamente linear, a expressão de uma
possível não linearidade é especificada em
termos do erro máximo esperado de
linearidade:
%( eL )max =
[eL ( x )]max
× 100
ro
(9)
A não linearidade é o desvio da resposta
real de uma reta ideal. Linearidade só existe
uma, mas há várias não-linearidades. Em
instrumentos mecânicos a balanço de
movimentos, tem-se o erro de angularidade,
que é um afastamento da linearidade devido
aos ângulos retos não estarem retos.
Erro de quantização
O erro de quantização se refere a leitura
digital e resulta do fato de tornar discreto o
valor de saída da medida. O melhor modo de
entender o erro de quantização, inerente a todo
instrumento digital que sempre possui uma
incerteza de ±n dígitos em sua leitura é o erro
da idade de uma pessoa. Assim que uma
criança nasce, sua idade é expressa em dias.
A idade expressa em dias tem erro em horas.
No primeiro ano, a idade passa a ser expressa
em meses. A idade expressa em meses em
erro de quantização de semanas ou dias.
Depois de uns 4 ou 5 anos, a idade da criança
passa a ser expressa em anos e o erro de
quantização passa a ser de meses. No dia do
seu aniversário, a pessoa tem idade exata em
anos, meses e dias. Logo depois do
aniversário, por exemplo de 40 anos, a pessoa
tem 40 anos. Um mês depois do aniversário, a
idade continua de 40 anos, mas o erro de
quantização é de um mês. Um mês antes de
fazer 41 anos, a pessoa ainda tem 40 anos,
mas o erro da idade já é de 11 meses. Então, a
idade da pessoa sempre tem um erro, pois sua
expressão é discreta; aumentando de 1 em 1
ano, passando de 40 para 41 anos.
Os erros sistemáticos intrínsecos do
instrumento podem ser eliminados ou
diminuídos principalmente através da
1. calibração
2. seleção criteriosa do instrumento
3. aplicação de fatores de correção.
Erro de Influência
Os erros sistemáticos de influência ou
interferência são causados pelos efeitos
externos ao instrumento, tais como as
variações ambientais de temperatura, pressão
barométrica e umidade. Os erros de influência
são reversíveis e podem ser de natureza
mecânica, elétrica, física e química.
Os erros mecânicos são devidos à posição,
inclinação, vibração, choque e ação da
gravidade.
112
Instrumentos de Medição
Os erros elétricos são devidos às variações
da voltagem e freqüência da alimentação. As
medições elétricas sofrem influência dos ruídos
e do acoplamento eletromagnético de campos.
Também o instrumento pneumático pode
apresentar erros quando a pressão do ar de
alimentação fica fora dos limites especificados.
Sujeiras, umidade e óleo no ar de alimentação
também podem provocar erros nos
instrumentos pneumáticos.
Os efeitos físicos são notados pela dilatação
térmica e da alteração das propriedades do
material.
Os efeitos químicos influem na composição
química, potencial eletroquímico e pH.
O sistema de medição também pode
introduzir erro na medição, por causa do
modelo, da configuração e da absorção da
potência. Por exemplo, na medição da
temperatura de um gás de exaustão de uma
máquina,
1. a temperatura do gás pode ser não
uniforme, produzindo erro por causa da
posição do sensor,
2. a introdução do sensor, mesmo pequeno,
pode alterar o perfil da velocidade da
vazão,
3. o sensor pode absorver (RTD) ou emitir
(termopar) potência, alterando a
temperatura do gás.
Os efeitos da influência podem ser de curta
duração, observáveis durante uma medição ou
são demorados, sendo observados durante
todo o conjunto das medições.
Os erros de influência podem ser
eliminados ou diminuídos pela colocação de ar
condicionado no ambiente, pela selagem de
componentes críticos, pelo uso de reguladores
de alimentação, pelo uso de blindagens
elétricas e aterramento dos circuitos.
Erro de Modificação
A diferença entre o erro de interferência e o
de modificação, é que a interferência ocorre no
instrumento de medição e o de modificação
ocorre na variável sendo medida.
O erro sistemático de modificação é devido
à influência de parâmetros externos que estão
associados a variável sob medição. Por
exemplo, a pressão exercida por uma coluna
de liquido em um tanque depende da altura, da
densidade do liquido e da aceleração da
gravidade. Quando se mede o nível do liquido
no tanque através da medição da pressão
diferencial, o erro devido a variação da
densidade do liquido é um erro de modificação.
Outro exemplo, é na medição de temperatura
através de termopar. A milivoltagem gerada
pelo termopar depende da diferença de
temperatura da medição e da junta de
referência. As variações na temperatura da
junta de referência provocam erros na
medição. Finalmente, a medição da vazão
volumétrica de gases é modificada pela
pressão estática e temperatura.
O modo de eliminar os erros de modificação
é fazer a compensação da medição.
Compensar uma medição é medir
continuamente a variável que provoca
modificação na variável medida e eliminar seu
efeito, através de computação matemática. No
exemplo da medição de nível com pressão
diferencial, mede-se também a densidade
variável do liquido e divide-se este sinal pelo
sinal correspondente ao da pressão diferencial.
Na medição de temperatura por termopar, a
temperatura da junta de referência é
continuamente medida e o sinal
correspondente é somado ao sinal da junta de
medição. Na medição de vazão compensada
de gases, medem-se os sinais proporcionais à
vazão, pressão e temperatura. Os sinais são
computados de modo que as modificações da
vazão volumétrica provocadas pela pressão e
temperatura são canceladas.
Erro Causado Pelo Sensor
O elemento sensor do instrumento pode
também causar erros na medição. Por
exemplo, a introdução do poço termal causa
turbulência na vazão, a colocação de um bulbo
de temperatura absorve energia do processo,
a colocação da placa de orifício produz uma
perda de carga na linha, a colocação de um
amperímetro introduz uma resistência parasita
no circuito elétrico.
Erro Causado Pelo Instrumento
O próprio instrumento de medição pode
introduzir erro na medição. Por exemplo, o
amperímetro que é inserido no circuito elétrico
para medir a corrente que circula pode
modificar a corrente medida. Ou seja, a
corrente que circula no circuito sem o
amperímetro é diferente da corrente do circuito
com o amperímetro. A resistência interna no
amperímetro modificou a corrente do circuito.
Esse erro é devido ao casamento das
impedâncias do circuito e do amperímetro. O
amperímetro deve ter uma impedância igual a
zero. Amperímetro com resistência interna zero
não modifica a corrente medida.
Analogamente, a impedância do voltímetro
pode alterar a voltagem a ser medida. A
impedância ideal do voltímetro é infinita.
Voltímetro com impedância infinita não introduz
erro na medição da voltagem. Nestas
aplicações, diz-se que o instrumento de
medição carregou o circuito; o instrumento de
medição é uma carga adicional ao circuito.
113
Instrumentos de Medição
5.7. Erro Aleatório
Os erros aleatórios são devidos à
probabilidade e chance. Eles são imprevisíveis
e aparecem por causas irregulares e
probabilísticas. Eles são diferentes em
medições repetidas do mesmo valor de uma
quantidade medida, sob as mesmas condições.
Os erros aleatórios fazem as medições se
espalharem mais ou menos e simetricamente
em torno do valor médio. Os erros aleatórios
afetam a precisão das medições.
Há muitas fontes deste tipo de erro, mas
nenhuma delas pode ser positivamente
identificada ou medida, porque muitas delas
são pequenas e não podem ser detectadas
individualmente. O efeito acumulado dos erros
indeterminados individuais, porém, faz os
dados de um conjunto de medições replicadas
flutuarem aleatoriamente em torno da média do
conjunto. As causas dos erros aleatórios são
devidas a
1. variabilidade natural da constante,
2. erros intrínsecos ao instrumento
dependentes da qualidade dos circuitos
e mecanismos.
3. erros irregulares devidos à histerese,
banda morta, atrito.
4. Os erros intrínsecos indeterminados
relacionados com o desgaste, o uso, o
atrito e a resistência de contato.
5. erros de influência que aparecem de
uma variação rápida de uma variável de
influência.
Repetitividade do instrumentoo
A habilidade de um sistema de medição
indicar o mesmo valor sob aplicação repetida e
independente da mesma entrada é chamada
de repetitividade do instrumento. As
expressões da repetitividade são baseadas em
testes múltiplos de calibração (replicação)
feitos dentro de um dado laboratório em uma
unidade particular. A repetitividade se baseia
em uma medida estatística chamada de desvio
padrão, sx, que é a variação da saída para uma
dada entrada fixa.
%(eR )max =
2s x
× 100
ro
A repetitividade do instrumento reflete
somente o erro encontrado sob condições
controladas de calibração. Ela não inclui os
erros adicionais incluídos durante a medição
devidos a variação na variável medida ou
devidos ao procedimento.
Reprodutibilidade
A reprodutibilidade, quando reportada na
especificação de um instrumento, se refere aos
resultados de testes de repetitividade
separados. A reprodutibilidade se baseia em
múltiplos testes de repetitividade (replicação)
feitos em diferentes laboratórios em um único
instrumento. A repetitividade se refere a um
único ponto; a reprodutibilidade é a
repetitividade em todos os pontos da faixa de
calibração.
Erro de histerese
O erro de histerese se refere à diferença
entre uma medição seqüencial crescente e
uma decrescente. O erro de histerese é dado
por
eh = ycrescente - ydecrescente
A histerese é especificada usualmente para
um sistema de medição em termos do erro
máximo de histerese como uma percentagem
do fundo de escala da saída:
%(eh )max =
[eh ( x )]max
× 100
ro
A histerese ocorre quando a saída de um
sistema de medição depende do valor prévio
indicado pelo sistema. Tal dependência pode
ser provocada por alguma limitação realística
do sistema, como atrito e amortecimento
viscoso em partes móveis ou carga residual em
componentes elétricos. Alguma histerese é
normal em algum sistema e afeta a precisão do
sistema.
Banda morta
O erro de banda morta é aquele provocado
quando se altera a variável medida e a
indicação do instrumento se mantém
constante. Banda morta é a faixa de variação
da entrada que não produz nenhum efeito
observável na saída do instrumento. A banda
morta é produzida por atrito, backlash ou
histerese.
Backlash é máxima distância ou ângulo que
qualquer peça de um sistema mecânico pode
ser movida em uma direção sem aplicação de
força ou movimento apreciável para uma
próxima peça em uma seqüência mecânica.
Toda medição possui um erro. Quando são
tomados todos os cuidados para eliminar os
erros de operação e de calibração, restam os
erros aleatórios. Os erros aleatórios não podem
ser eliminados, mas estatisticamente
conhecidos. O seu tratamento é feito por
métodos estatísticos, fazendo-se muitas
medições, verificando a distribuição e a
freqüência da ocorrência.
114
Instrumentos de Medição
Sob o ponto de vista estatístico, a
distribuição dos erros aleatórios é normal ou
gaussiana, onde a maioria dos erros é de erros
pequenos e a minoria de erros é de erros
grandes.
Se o objetivo do sistema é ter medições
repetitivas e não necessariamente exatas, é
importante apenas reduzir o erro aleatório; não
se importando muito com o erro de sistemático.
Ou seja, há sistemas onde o que importa é a
repetitividade e a precisão, sendo suficiente a
medição inexata.
Inversamente, se o interesse do sistema é
ter o valor exato da medição, pois se quer os
valores absolutos, como na compra e venda de
produtos, além da repetitividade se requer a
exatidão.
5.8. Erro Resultante Final
O erro na medição não está somente no
instrumento de indicação (display) mas em
todos os componentes da malha de medição,
como sensor, elemento condicionador de sinal,
linearizador e filtro. Uma questão importante
levantada é: qual o erro total do sistema ou da
malha?
A precisão da medição pode assim ser
definida como a soma dos erros sistemáticos e
aleatórios de cada componente do sistema ou
da malha. Isto é uma hipótese pessimista, onde
se admite que todos os erros são na mesma
direção e se acumulam.
Alguém mais otimista poderia estabelecer a
precisão final do sistema como igual à pior
precisão entre os componentes. Ou seja,
considera-se somente a precisão do pior
instrumento e desprezam-se as outras
precisões melhores. Pode-se ainda determinar
a precisão final como a média ponderada das
precisões individuais.
Pode-se obter vários resultados válidos da
soma de duas incertezas iguais a ±1 e ±1.
1. O pessimista pode obter a incerteza final
de +2 ou -2, assumindo que as
incertezas se somam no mesmo sentido.
2. O otimista pode achar que as incertezas
se anulam e a resultalnte mais provável
é igual a 0.
3. O realista intermediário faz a soma
conservativa:
questão de bom senso. Quando realmente se
quer saber a precisão real do sistema, deve-se
usar um padrão que dê diretamente o valor
verdadeiro e comparar com a leitura final
obtida. Mede-se a incerteza total em vez de
calculá-la, seguindo a máxima de metrologia:
não imagine quando puder calcular e não
calcule quando puder medir.
Para se ter uma idéia qualitativa de como
pequenos erros produzem uma incerteza total,
imagine uma situação em que quatro erros
pequenos se combinam para dar um erro total.
Seja cada erro com uma igual probabilidade de
ocorrer e que cada um pode fazer o resultado
final ser maior ou menor por um valor ±U.
A tabela mostra todas os modos possíveis
dos quatro erros serem combinados para dar o
desvio indicado da média. Somente uma
combinação de erros dá o desvio de +4U,
quatro combinação dão um desvio de +2U e
seis combinações dão um desvio de 0U. Os
erros negativos tem a mesma combinação.
Esta relação de 1:4:6:4:1 é uma medida da
probabilidade de um desvio de cada valor.
Quando se aumenta o número de medições,
pode-se esperar uma distribuição de freqüência
como a mostrada na figura. A ordenada no
gráfico é a freqüência relativa de ocorrência de
cinco combinações possíveis.
A tabela mostra a distribuição teórica para
dez incertezas de igual probabilidade.
Novamente se verifica que a ocorrência mais
freqüente é a de desvio zero da média. A
ocorrência menos freqüente, de máximo desvio
10U ocorre somente em uma vez em 500
medições.
Cada componente de um sistema ou passo
de um procedimento de contribui com algum
erro na medição. Visto como um sistema
dinâmico, uma medição não pode ser mais
confiável que o componente ou passo menos
confiável. Um sistema de medição não pode
ser mais preciso que o componente menos
preciso. O conhecimento das fontes de erros
dominantes e desprezíveis de um sistema é
muito importante e o conhecimento de sua
fonte, aleatória ou sistemática, é que define o
tratamento a ser dados às medições. O
conhecimento do modo que os erros se
propagam são importantes no uso e projeto de
instrumentos e procedimentos.
12 + 12 = ±14
,
que é um valor intermediário entre 0 e ±2.
Embora os três resultados sejam muito
diferentes, pode-se explicar e justificar
qualquer um deles. Não há uma regra única ou
recomendação de como proceder. É uma
115
Instrumentos de Medição
Tab. 1. Combinações Possíveis de 4 Incertezas Iguais
Número
Freqüência
Relativa
Combinações das
incertezas
Tamanho
Erros
+U1+U2+U3+U4
-U1+U2+U3+U4
+U1-U2+U3+U4
+U1+U2-U3+U4
+U1+U2+U3-U4
-U1-U2+U3+U4
+U1+U2-U3-U4
+U1-U2+U3-U4
-U1+U2-U3+U4
-U1+U2+U3-U4
+U1-U2-U3+U4
+U1-U2-U3-U4
-U1+U2-U3-U4
-U1-U2+U3-U4
-U1-U2-U3+U4
-U1-U2-U3-U4
4U
1
1/16=0,0625
+2U
4
4/16=0,250
0
6
6/16=0,375
-2U
4
4/16=0,250
-4U
1
1/46=0,0625
combinaçõe
s
A propagação do erro aleatório pode ser
rastreada matematicamente usando-se uma
medida da precisão, como o desvio padrão e
desenvolvendo as equações que descrevem a
dinâmica do sistema. O erro sistemático pode
também ser rastreado através dos dados das
calibrações anteriores e dados do catálogo do
instrumento.
6. Incerteza na Medição
6.1. Conceito
Todas as medições são contaminadas por
erros imperfeitamente conhecidos, de modo
que a significância associada com o resultado
de uma medição deve considerar esta
incerteza
Incerteza é um parâmetro, associado com o
resultado de uma medição, que caracteriza a
dispersão dos valores que podem
razoavelmente ser atribuídos à quantidade
medida.
Há problemas associados com esta
definição de incerteza de medição, que é
tomada do Vocabulário de Metrologia da ISO.
O que é a dispersão de se o valor verdadeiro
não pode ser conhecido? Ela também implica
que incerteza é somente relevante se várias
medições são feitas e ela falha - por não
mencionar valor verdadeiro para invocar o
conceito de rastreabilidade. Uma definição
mais prática, mais usada porque ela mais
exatamente satisfaz as necessidades da
metrologia industrial e não é consistente com a
anterior, é a seguinte:
Incerteza é o resultado da avaliação
pretendida em caracterizando a faixa dentro da
qual o valor verdadeiro de uma quantidade
medida é estimado cair, geralmente com uma
dada confiança.
Incerteza padrão é o desvio padrão
estimado
Incerteza padrão combinada é o resultado
da combinação dos componentes da incerteza
padrão.
Incerteza estendida é Obtida pela
multiplicação da incerteza padrão combinada
por um fator de cobertura.
É uma exigência para todos os laboratórios
credenciados de calibração que os resultados
reportados em um certificado sejam
acompanhados de uma declaração
descrevendo a incerteza associada com estes
resultados. É também exigência para os
laboratórios de testes, sob as seguintes
circunstâncias:
1. onde isto é requerido pelo cliente
2. onde isto é requerido pela especificação
do teste
3. onde a incerteza é relevante para
validar ou aplicar o resultado, e.g., onde
a incerteza afeta a conformidade a uma
especificação ou limite.
Os laboratórios credenciados devem ter
uma política definida cobrindo a provisão de
estimativas das incertezas das calibrações ou
testes feitos. O laboratório deve usar
procedimentos documentados para a
estimativa, tratamento e relatório da incerteza.
Os laboratórios devem consultar seu corpo
de credenciamento para qualquer orientação
específica que possa estar disponível para a
calibração ou teste.
Os meios pelos quais os laboratórios
credenciados devem tratar as incertezas da
medições são definidos em detalhe na ISO
Guide: Guide to the Expression of Uncertainty
in Measurement. A terminologia usada aqui é
consistente com a do Guide.
6.2. Princípios Gerais
O objetivo de uma medição é determinar o
valor de uma quantidade específica sujeita à
medida (mesurando). Para laboratórios de
calibração, isto pode ser qualquer parâmetro
da medição dentro de campos reconhecidos da
medição - comprimento, massa, tempo,
pressão, corrente elétrica. Quando aplicado a
teste, o termo genérico mesurando pode cobrir
muitas quantidades diferentes, eg, a resistência
de um material, a concentração de uma
solução, o nível de emissão de ruído ou
radiação eletromagnética, a quantidade de
microorganismos. Uma medição começa com
uma especificação apropriada da quantidade
medida, o método genérico de medição e o
procedimento específico detalhado da
medição.
116
Instrumentos de Medição
Nenhuma medição ou teste é perfeito e as
imperfeições fazem aparecer erro de medição
no resultado. Como conseqüência, o resultado
de uma medição é somente uma aproximação
do valor da quantidade medida e é somente
completa quando acompanhado por uma
expressão da incerteza desta aproximação.
Realmente, por causa da incerteza da
medição, o valor verdadeiro nunca pode ser
conhecido. No limite, por causa de alguns
efeitos, ele pode mesmo não existir.
Também deve ser notado que o artigo
indefinido um, em vez do artigo definido o,
deve ser usado em conjunto com valor
verdadeiro por que pode haver mais de um
valor consistente com a definição de uma
quantidade particular.
A incerteza da medição compreende, em
geral, muitos componentes. Alguns podem ser
calculados da distribuição estatística dos
resultados de uma série de medições e pode
ser caracterizados por desvios padrão
experimentais. Os outros componentes, que
podem também ser caracterizados por desvios
padrão, são calculados das distribuições de
probabilidade assumidas baseadas na
experiência ou em outra informação.
Erros aleatórios aparecem das variações
aleatórias das observações. A cada momento
que a medição é tomada sob as mesmas
condições, efeitos aleatórios de várias fontes
afetam o valor medido. Uma série de medições
produz um espalhamento em torno de um valor
médio. Um número de fontes pode contribuir
para a variabilidade cada vez que uma
medição é tomada e sua influência pode estar
continuamente mudando. Elas não podem ser
eliminadas mas a incerteza devido a seus
efeitos pode ser reduzida, aumentando o
número de observações e aplicando análise
estatística.
Erros sistemáticos aparecem de efeitos
sistemáticos, ie um efeito no resultado de uma
quantiade que não está incluído na
especificação da quantiade medida mas que
influencia no resultado. Estes erros peramecem
constantes quando uma medição é repetida
sob as mesmas condições por isso eles não
revelados pelas medições repetidas. Seu efeito
é introduzir um deslocamento entre o valor da
medição e o valor médio determinado
experimentalmente. Eles não podem ser
eliminados mas podem ser reduzidos, por
exemplo, fazendo correções para o tamanho
conhecido de um erro devido a um efeito
sistematico reconhecido.
O Guide adotou o enfoque de agrupar os
componentes da incerteza em duas categorias
baseadas em seus métodos de avaliação, Tipo
A e Tipo B. Esta classificação de métodos de
avaliação, em vez dos componentes em si,
evita certas ambiguidades. Por exemplo, um
componente aleatório de incerteza em uma
medição pode se tornar um componente
sistemático em outra medição que tem como
sua entrada o resultado da primeira medição.
Assim, a incerteza total cotada em um
certificado de calibração de um instrumento
incluirá o componente devido aos efeitos
aleatórios, mas quando este valor total é
subsequentemente usado como a contribuição
na avaliação da incerteza em um teste usando
este instrumento, a contribuição deve ser
tomada como sistemática.
Avaliação do Tipo A é feita pelo cálculo de
uma série de leituras repetidas, usando
métodos estatísticos.
Avaliação do Tipo B é feita por meios
diferentes dos usados no método B. Por
exemplo, por julgamento baseado em:
1. Dados de certificados de calibração, que
possibilita correções a serem feitas e
incertezas do Tipo B a serem atribuídas.
2. Dados de medições anteriores, por
exemplo, gráficos históricos podem ser
construídos e podem fornecer
informação útil acerca das mudanças
dinâmicas.
3. Experiência com ou o conhecimento
geral do comportamento e propriedades
de materiais e equipamentos iguais.
4. Valores aceitos de constantes
associadas com materiais e
quantidades.
5. Especificações dos fabricantes.
6. Todas as outras informações relevantes.
Incertezas individuais são avaliadas pelo
método apropriado e cada uma é expressa
como um desvio padrão e é referida a uma
incerteza padrão.
As incertezas padrão individuais são
combinadas para produzir um valor total de
incerteza, conhecido como incerteza padrão
combinada.
Uma incerteza expandida é usualmente
requerida para satisfazer as necessidades da
maioria das aplicações, especialmente onde se
envolve segurança. É recomendado fornecer
um intervalo maior acerca do resultado de uma
medição quando a incerteza padrão com,
consequentemente, uma maior probabilidade
do que envolve o valor verdadeiro convencional
da quantidade medida. Ela é obtida
multiplicando-se a incerteza padrão combinada
por um fator de cobertura, k. A escolha do fator
é baseada no nível de confiança requerido.
117
Instrumentos de Medição
6.3. Fontes de Incerteza
6.4. Estimativa das Incertezas
Há várias fontes possíveis de incerteza.
Como elas dependem da disciplina técnica
envolvida, não é possível dar recomendações
detalhadas aqui. Porém, os seguintes pontos
gerais se aplicam a muitas áreas de calibração
e teste:
1. Definição incompleta do teste - a exigência
pode não ser claramente descrita, eg, a
temperatura de um teste pode ser dada
como temperatura ambiente.
2. Realização imperfeita do procedimento de
teste, mesmo quando as condições de teste
estão claramente definidas pode não ser
possível produzir as condições teóricas, na
prática, devido as imperfeições inevitáveis
nos materiais ou sistemas usados.
3. Amostragem - a amostra pode não ser
totalmente representativa. Em algumas
disciplinas, como teste microbiológico, pode
ser muito difícil obter uma amostra
representativa.
4. Conhecimento inadequado dos efeitos das
condições ambientais no processo da
medição ou medição imperfeita das
condições ambientais.
5. Erro pessoal de polarização na leitura de
instrumentos analógicos.
6. Resolução ou limite de discriminação do
instrumento ou erros na graduação da
escala.
7. Valores atribuídos aos padrões da medição
(de trabalho e de referência) e materiais de
referência certificada.
8. Alterações nas características ou
desempenho de um instrumento de medição
desde a sua última calibração.
9. Valores de constantes e outros parâmetros
usadas na avaliação dos dados.
10. Aproximações e hipóteses incorporadas no
método e procedimento da medição.
11. Variações nas leituras repetidas feitas sob
condições parecidas mas não idênticas tais como efeitos aleatórios podem ser
causados, por exemplo, ruído elétrico em
instrumentos de medição, flutuações
rápidas no ambiente local, eg, temperatura,
umidade e pressão do ar, variabilidade no
desempenho do operador que faz o teste.
Estas fontes não são necessariamente
independentes e, em adição, efeitos
sistemáticos não reconhecidos podem existir
que não podem ser levados em conta mas
contribuem para o erro. É por esta razão que
os laboratórios credenciados encorajam - e
muitas vezes insistem em - participação em
comparações interlaboratoriais, auditorias de
medição e cross checking interno de resultados
por diferentes meios.
A incerteza total de uma medição é uma
combinação de um número de incertezas
componentes. Mesmo uma única leitura do
instrumento pode ser influenciada por vários
fatores. A consideração cuidadosa de cada
medição envolvida na calibração ou teste é
necessária para identificar e listar todos os
fatores que contribuem para a incerteza total.
Este é um passo muito importante e requer um
bom entendimento do equipamento de
medição, os princípios e práticas da calibração
ou teste e a influência do ambiente
O próximo passo é quantificar as incertezas
componentes por meios apropriados. Uma
quantificação aproximada inicial pode ser
valiosa em possibilitar que alguns
componentes sejam reconhecidos como
desprezíveis e não necessitam de uma
avaliação mais rigorosa. Em muitos casos, uma
definição prática de desprezível pode ser um
componente que não é maior do que um quinto
do tamanho do maior componente. Alguns
componentes podem ser quantificados pelo
cálculo do desvio padrão de um conjunto de
medições repetidas (Tipo A) como detalhado
no Guide. A quantificação de outros
componentes pode requerer o julgamento,
usando toda informação relevante na
variabilidade possível de cada fator (Tipo B).
Para estimativas do Tipo B, o conjunto de
informações pode incluir alguns ou todos os
fatores listados no parágrafo 2.
Cálculos subsequentes se tornam mais
simples se, quando possível, todos os
componentes são expressos do mesmo modo,
e.g., como percentagem, ou ppm ou mesma
unidade de engenharia usada para o resultado
reportado.
6.4. Incerteza Padrão
A incerteza padrão é definida como um
desvio padrão. O potencial para erros em um
estágio posterior da avaliação pode ser
minimizado expressando todas as incertezas
componentes como um desvio padrão. Isto
podoe requer ajuste de alguns valores da
incerteza, de modo que os obtidos dos
certificados de calibração e outras fontes, que
muitas vezes tem sido expressos com um
maior nível de confiança, envolvendo múltiplo
do desvio padrão (2 ou 3).
6.5. Incerteza Padrão Combinada
As incertezas componentes devem ser
combinadas para produzir uma incerteza total
usando o procedimento estabelecido no Guide.
Em muitos casos, isto reduz a tomar a raiz
118
Instrumentos de Medição
quadrada da soma dos quadrados das
incertezas padrão componentes (método da
raiz da soma dos quadrados). Porém, alguns
componentes podem ser interdependentes e
podem, por exemplo, se cancelarem entre si ou
se reforçarem entre si. Em muitos casos, isto
pode ser facilmente visto e os componentes
interdependentes podem ser somados
algebricamente para dar um valor final. Porém,
em casos mais complexos, podem-se usar
métodos matemáticos mais complexos para
tias componentes correlatos, como derivadas
parciais
distribuição t, baseada nos graus de liberdade
efetivo, νef, da incerteza padrão combinada.
6.6. Incerteza Expandida
Em muitos casos, é necessário cotar uma
incerteza expandida e a incerteza padrão
combinada portanto necessita ser multiplicada
por um fator de cobertura apropriado. Isto deve
refletir o nível de confiança requerido e, em
termos estritos, será ditado pelos detalhes da
distribuição de probabilidade caracterizado pelo
resultado da medição e sua incerteza padrão
combinada. Porém, as computações
extensivas requerida para combinar as
distribuições de probabilidade são raramente
justificadas pelo tamanho e confiabilidade da
informação disponível. Em muitos casos, uma
aproximação é aceitável, ou seja, a distribuição
da probabilidade pode ser assumida como
normal e que um valor de 2 para o fator de
cobertura define um intervalo tendo um nível de
confiança de aproximadamente 95%, ou, para
aplicações mais críticas, que um valor de 3
define um intervalo tendo um nível de
confiança de aproximadamente 99%.
Exceções a estes casos precisam ser
tratados em uma base individual e devem ser
caracterizados por um ou ambos dos
seguintes:
1. A ausência de um número significativo de
incertezas componentes tendo distribuições
de probabilidade bem comportadas, tais
como, normal ou retangular.
2. Inclusão de uma incerteza componente
dominante. Isto pode causar a incerteza
expandida ser maior do se as contribuições
individuais da incerteza fossem somadas
aritmeticamente e é claramente uma
situação pessimista.
Deve também ser notado que se erros de
incertezas do Tipo A em um sistema de
medição são comparáveis aos do Tipo B, a
incerteza expandida pode ser uma
subestimativa, a não ser que um grande
número de leituras repetidas26 MAI 97 tenha sido
feito. Nestas circunstâncias, um fator de
cobertura kp deve ser obtido de uma
Apostila\Metrologia
43MedErro.doc
24 SET 98 (Substitui 26 MAI 97)
119
Instrumentos de Medição
120
5. Confirmação Metrológica
Objetivos de Ensino
1. Conceituar calibração e ajuste. Apresentar a cadeia de calibração e rastreabilidade dos
diferentes padrões.
2. Conceituar padrões físicos e de receita, primários, secundários e de trabalho.
3. Apresentar os cuidados de monitoração dos instrumentos de medição e teste.
4. Conceituar e diferenciar os vários tipos de normas. Apresentar a ABNT, INMETRO, NIST
e Código de Defesa do Consumidor.
5. Apresentar um caminho típico para obter a certificação da ISO 9000, através de projeto,
implantação e comprovação metrológica.
1. Confirmação Metrológica
1.1. Conceito
Comprovação ou confirmação metrológica é
o conjunto de operações necessárias para
assegurar que um dado instrumento de
medição esteja em condições de conformidade
com os requisitos para o uso pretendido (ISO
10 012-1, 1993). O termo confirmação
metrológica é um termo criado recentemente e
inclui, entre outras atividades,
calibração
ajuste
manutenção
lacração
marcação com etiqueta.
Na prática, a maioria das pessoas ainda
chama esta atividade de calibração-aferição,
quando deveria chamar de calibração-ajuste.
1.2. Necessidade da confirmação
A exatidão de qualquer medição é uma
comparação da conformidade desta medição
com o padrão. A manutenção de padrões e a
calibração de equipamentos de teste é um
processo muito caro, mas o desempenho de
todo os sistema depende diretamente da
exatidão de cada componente do sistema.
Embora o equipamento de medição muito
exato seja caro, baratear este equipamento
significa piorar o seu desempenho e diminuir
sua precisão.
Os principais motivos para justificar a
calibração de um instrumento são:
1. garantia de que a medição do
instrumento é exata,
2. melhorar e manter a qualidade do
sistema que depende da medição do
instrumento,
3. atendimento de exigências legais ou de
contratos comerciais, principalmente
quando estão envolvidas a compra e
venda de produtos através da medição.
1.3. Terminologia
Há algumas confusões clássicas de
terminologia, como exatidão e precisão,
calibração, aferição e ajuste. Embora já exista
uma portaria do Inmetro, no 29, de 10 MAR 95
(Vocabulário Internacional de Termos
Fundamentais e Gerais de Metrologia), ainda
há resistência para se usar a terminologia
recomendada.
Para alguns, calibrar e aferir possuem o
mesmo significado para a operação de verificar
um atributo de um sensor ou instrumento e
ajustar é a operação que além disso, inclui a
atuação no instrumento para adequá-lo a uma
determinada condição. Para outros, aferir é a
operação de verificar um atributo de um sensor
ou instrumento e calibrar é a de fazer ajuste no
instrumento. Há ainda quem não admite a
aferição, mas apenas calibração para verificar
atributo e ajuste para atuar no instrumento. A
confusão é previsível, pois o primeiro passo da
calibração de um instrumento é a sua aferição.
Para estar de conformidade com a portaria
do Inmetro, para o autor e no presente
trabalho, calibrar e aferir possuem o mesmo
significado. Para o autor calibrar é uma
operação de verificação. Durante a
calibração, quando necessário, faz-se o ajuste,
que é uma atuação no instrumento para
121
Confirmação Metrológica
torná-lo exato. O primeiro passo do ajuste,
porém é a calibração, para verificar o status de
chegada do instrumento. No presente trabalho
se evitará usar o termo aferição, usando em
seu lugar o termo calibração. Também neste
trabalho, calibrar pode incluir ou não a
operação de ajuste.
Calibração e ajuste estão associadas com a
função dos instrumentos ou dispositivos.
Podem ser ajustados instrumentos que
tenham pontos de atuação, como transmissor,
indicador, registrador, totalizador, válvula de
controle. Os ajustes são feitos em
potenciômetros ou parafusos disponíveis nos
instrumentos. Podem ser calibrados
instrumentos e sensores que não possuem
dispositivo de ajuste, mas que tem um atributo
inerente à sua função. Podem ser calibrados
elementos sensores e instrumentos medidores
de vazão com fator K.
Para eliminar estas ambigüidades, cada
usuário deve definir, por escrito, em seus
procedimentos e comunicações os termos e
seus significados e como estamos no Brasil,
devemos seguir a portaria do Inmetro.
1.4. Calibração e Ajuste
Calibração
Calibração é a operação de verificar o valor
de um atributo de um sensor ou de um
instrumento. Não é disponível nenhum
dispositivo de ajuste e por isso só há
verificação.
Como no ajuste, na calibração há os
seguintes passos:
1. Aplicação de sinal na entrada do
dispositivo, com leitura deste sinal por
um padrão rastreado.
2. Leitura do sinal de saída do dispositivo
através de outro padrão rastreado.
3. Comparação do sinal lido com o valor
teórico, dentro dos limites de incerteza
consistentes.
4. Se os valores estiverem dentro dos
limites estabelecidos, o dispositivo está
adequado ao uso.
5. Se os valores estiverem fora dos limites,
o dispositivo é descartado, degradado ou
o seu atributo é modificado em todas
suas aplicações.
Sensores, como termopar e resistência
detectora de temperatura, são calibrados.
Calibrar um termopar é verificar se a voltagem
gerada por ele corresponde aos valores
teóricos, dados por tabelas ou por curvas,
quando se gera uma temperatura conhecida e
medida por um termômetro padrão. Se os
valores estiverem de conformidade com os
teóricos, o termopar pode ser usado; se
estiverem diferentes, o termopar deve ser
jogado fora e substituído ou degradado de sua
função, por exemplo, passando de termopar
padrão para termopar de medição de
processo..
Calibrar medidores de vazão que possuem
o fator K, como a turbina e o medidor
magnético, consiste na determinação deste
fator K. As calibrações posteriores são
necessárias para confirmar o valor deste fator
K. Quando o valor se alterar, o novo fator K
deve ser considerado na medição, alterando-se
escalas ou usando-se fatores de correção.
Ajuste
Ajuste é a operação que tem como objetivo
levar o instrumento de medição a uma
condição de desempenho e ausência de erros
sistemáticos adequada ao seu uso
(ISO 10 012-1). De um modo mais específico
para o instrumentista, antes do ajuste, faz-se a
calibração, que é a comparação do instrumento
de exatidão conhecida com outro padrão ou
instrumento de ordem superior, para detectar,
correlacionar, reportar ou eliminar por ajuste ou
reparo, qualquer variação na exatidão do item
sob calibração.
A calibração só é confiável e tem significado
quando for feita:
1. baseando-se em medições replicadas e
usando-se as medições como base de
decisão,
2. conforme procedimentos claros e
objetivos, escritos pelo executante,
3. em ambiente com temperatura, pressão
e umidade conhecido e quando
necessário, controlado
4. por pessoas especialistas com
habilidade e experiência com o
procedimento,
5. estabelecendo-se um período de
validade, após o qual ela deve ser
refeita.
6. documentando os registros.
Calibração pode também consistir na
determinação da relação saída/entrada do
sistema de medição. Esta relação pode ser, na
prática, a determinação da escala de um
indicador ou da saída de um transmissor. Se a
resposta saída/entrada de um sistema é uma
reta, a calibração de um único ponto é
suficiente e portanto, apenas um ponto
conhecido do padrão é empregado. Se a
resposta do sistema é não-linear, deve ser
empregado um conjunto de entradas
conhecidas do padrão para a calibração das
saídas correspondentes do sistema.
Uma curva de calibração forma a lógica pela
qual uma saída indicada do sistema de
122
Confirmação Metrológica
medição pode ser interpretada durante uma
medição real. Por exemplo, a curva de
calibração é a base para fixar a escala do
display de saída em um sistema de medição.
Além disso, uma curva de calibração pode ser
usada como parte para desenvolver uma
relação funcional, uma equação conhecida
como uma correlação entre a entrada e saída.
Uma correlação tem a forma y = f(x) e é
determinada aplicando relação física e técnicas
de adequação de curva para a curva de
calibração. A correlação pode então ser usada
em medições posteriores para determinar o
valor de entrada desconhecido baseado no
valor da saída, o valor indicado pelo sistema de
medição.
Calibrar um transmissor eletrônico de
pressão consiste em:
1. Aplicar uma pressão conhecida na sua
entrada, indicada por um padrão de
pressão rastreado.
2. Medir a saída de corrente, indicada por
um amperímetro padrão rastreado.
3. Comparar os valores lidos com os
estabelecidos pelo procedimento,
conforme a imprecisão do instrumento.
4. Caso os valores estejam dentro dos
limites estabelecidos, a calibração
terminou (alguém diz que isto é uma
aferição! Realmente é apenas uma
verificação e não houve ajuste, mas para
o autor, está se fazendo a calibração do
transmissor).
5. Caso os valores estejam fora, ajustamse os potenciômetros de zero e de span.
6. Paralelamente, faz-se um relatório de
não conformidade, quando o transmissor
pertencer ao sistema de qualidade.
7. Repetem-se os passos 1 e 2, acima.
8. Caso os valores estejam dentro, a
calibração terminou.
9. Caso os valores estejam fora, o
instrumento está com problema, pois ele
não permite ser calibrado, o instrumento
é encaminhado para a manutenção.
10. Depois da manutenção o instrumento
deve ser novamente calibrado e se
necessário, ajustado.
A calibração pode incluir a inspeção visual
do instrumento, pesquisa de defeitos funcionais
explícitos e óbvios e testes operacionais.
A manutenção não é calibração, mas depois
de qualquer manutenção de instrumento, ele
deve ser calibrado. É recomendável que a
pessoa que faz a manutenção seja diferente da
que faz a calibração.
Calibrar um indicador de pressão é quase a
mesma coisa. Gera-se o sinal de entrada do
indicador, indicando-o com um manômetro
padrão e ajusta-se a posição do ponteiro na
escala. Se necessário, ajusta-se a posição do
ponteiro. Quando o instrumento não permite a
calibração, envia-o para a manutenção.
Fig. 5.1. Ajuste de transmissor (Rosemount)
Às vezes, em vez de se aplicar a grandeza
medida pelo instrumento, pode-se simular o
sinal de saída do sensor, por conveniência de
tempo e custo. Por exemplo, na calibração de
um transmissor de temperatura a termopar, em
vez de se simular a temperatura, que é uma
operação demorada, molhada e cara, simulase uma milivoltagem na entrada do
transmissor, conforme valores listados na
literatura técnica (curvas ou tabelas de tensão
x temperatura), facilmente obtida de um
gerador de tensão.
1.5. Tipos de calibração
Toda calibração deve incluir: padrão
rastreado, procedimento escrito, ambiente
conhecido, operador treinado, registro
documentado e ter um período de validade.
Tem-se o preconceito errado de considerar que
apenas as calibrações relacionadas com ISO
9000 requerem estas exigências. Toda
calibração deve ter estes parâmetros. Um
instrumento pode ser calibrado, por questão de
1. custódia, para garantir que a compra e
venda de produtos feita através de
tubulações com medidores em linha
estejam dentro dos limites contratuais,
2. segurança, para assegurar que os
instrumentos estejam indicando dentro
dos valores seguros do processo,
3. balanço de materiais, para verificar
rendimentos de processos,
equipamentos, reagentes e
catalizadores,
4. ecologia, para garantir que as análises
dos efluentes estejam dentro dos valores
ecologicamente corretos
123
Confirmação Metrológica
5. legal, para satisfazer exigências legais e
de normas técnicas,
6. ISO 9000, para atender suas exigências
relacionadas com a incerteza,
continuidade operacional e qualidade do
produto final.
Calibração programada e emergencial
Calibração programada é aquela feita para
atender um cronograma já estabelecido, em
função da disponibilidade dos instrumentos e
dos períodos ótimos, dentro dos quais os
instrumentos permanecem dentro de seu
desempenho nominal. Geralmente os períodos
são estabelecidos em semanas.
A norma ISO 9000 requer um programa de
calibração dos instrumentos de medição, teste
e inspeção.
Calibração de emergência é aquela feita
para atender um chamado extraordinário do
pessoal do processo que considera o
instrumento descalibrado. Uma das coisas
difíceis da vida, em todos os aspectos, é a de
relacionar causa e efeito. Geralmente, para o
pessoal de processo, quando há um problema
com o produto final, a primeira vítima é o
instrumento. A maioria dos instrumentos que
vão para a calibração está dentro dos limites
da calibração e não precisava de calibração.
Calibração estática ou dinâmica
O tipo mais comum de calibração é
conhecido como calibração estática. Neste
procedimento, um valor conhecido é entrada
para o sistema sob calibração e a saída do
sistema é registrada. O termo estático se refere
ao procedimento da calibração em que os
valores das variáveis envolvidos permanecem
constantes durante uma medição, isto é, eles
não variam com o tempo. Nas calibrações
estáticas, somente as magnitudes da entrada
conhecida e a saída medida são importantes.
Os pontos medidos de uma curva típica de
calibração estática descrevem a relação
entrada-saída para um sistema de medição.
Uma curva polinomial acomoda os dados que
podem ser convenientemente usados para
descrever esta relação.
Em um sentido amplo, as variáveis
dinâmicas são dependentes do tempo, tanto
em magnitude como em freqüência. A relação
das magnitudes entrada-saída entre um sinal
de entrada dinâmico e um sistema de medição
depende da dependência do tempo do sinal de
entrada. Quando variáveis dependentes do
tempo são medidas, faz-se uma calibração
dinâmica além da calibração estática. Uma
calibração dinâmica determina a relação entre
uma entrada de comportamento dinâmico
conhecido e a saída do sistema de medição.
Usualmente tais calibrações envolvem um sinal
senoidal ou um degrau como o sinal de entrada
conhecido.
Calibração própria ou externa
A calibração pode ser feita pelo próprio
usuário, principalmente dos instrumentos de
níveis mais baixos, envolvendo os instrumentos
de medição, padrões de trabalho e padrões de
laboratório,
A calibração também pode ser feita por
externamente, preferivelmente por laboratório
credenciado da Rede Brasileira de Calibração,
pelo fabricante do instrumento ou por
laboratório nacional ou internacional que tenha
padrões rastreados.
Justifica-se calibrar nas próprias oficinas do
usuário:
1. instrumentos comuns, de precisão
industrial, que requerem um padrão
disponível na própria planta,
2. quando a quantidade de instrumentos é
grande, justificando economicamente ter
um laboratório para a calibração
periódica destes instrumentos.
Justifica-se enviar um instrumento para ser
calibrado externamente quando
1. o usuário possui poucos instrumentos
2. quando a calibração requer padrões com
precisão muito elevada e portanto de
altíssimo custo
3. para comparação interlaboratorial
4. por exigência legal.
Qualquer quer seja o local da calibração, o
responsável final pela calibração é o usuário.
Quando a calibração é feita externamente, o
usuário deve ter um contrato escrito bem claro,
definindo o que o laboratório deve fazer. É
muito comum se enviar um instrumento para
ser calibrado e ajustado e o laboratório fazer
apenas a calibração. É também muito
freqüente o laboratório reportar uma calibração
de modo incompreensível, sem informar o
algoritmo de cálculo da incerteza de calibração,
o método empregado, relatórios com
preenchimento com números com algarismos
significativos sem significado. O único modo de
evitar estes inconvenientes é ter um contrato
escrito claro e preciso, falando explicitamente
sobre esses parâmetros.
Calibração seqüencial ou aleatória
Uma calibração seqüencial aplica uma
variação seguida no valor de entrada sobre a
faixa desejada de entrada. Isto é realizado
aumentando o valor de entrada (crescente) ou
diminuindo o valor de entrada (decrescente)
sobre toda a faixa de entrada.
124
Confirmação Metrológica
A calibração seqüencial é um diagnóstico
efetivo para identificar e quantificar o erro de
histerese em um sistema de medição.
A calibração aleatória se aplica a
seqüências selecionadas aleatoriamente de
valores de uma entrada conhecida sobre a
faixa de calibração pretendida. Como
vantagens da calibração aleatória estática temse:
1. tendência a minimizar o impacto da
interferência
2. quebra dos efeitos da histerese
3. diminuição dos erros de leitura
4. garantia que cada aplicação do valor de
entrada seja independente da anterior
5. redução do erro sistemático da
calibração
6. simulação mais parecida com a situação
real da medição
7. fornecimento de um diagnóstico para
delinear as características de erros de
linearidade, zero, span e repetitividade.
Calibração a seco e molhada
A calibração seca ou a seco ou calibração
de artefato (Fluke) é uma aferição que contorna
o sensor do instrumento, sem usar o padrão da
variável medida pelo instrumento. A calibração
a seco geralmente se restringe ao elemento
secundário e assume-se que o elemento
primário seja descrito com precisão por
relações empíricas desenvolvidas de
medidores eletrônica ou hidraulicamente
semelhantes. A calibração a seco é
efetivamente uma calibração do transmissor
eletrônico ou pneumático, bypassando o seu
elemento sensor.
A calibração seca é feita por comparação
usando relação e medição embutidas no
próprio instrumento sendo calibrado. O
instrumento microprocessado aumenta a sua
capacidade de operação e simplifica o
processo de calibração, pois ele foi projetado
para armazenar e usar fatores de correção em
programa para compensar erros de ganho e de
zero. Este processo de armazenar constantes
baseando-se na comparação com padrões
externos foi então adaptado para a calibração a
seco. As correções feitas pelo programa
interno elimina a necessidade de remover o
instrumento para fazer ajustes físicos,
simplificando o processo de calibração, que
fica facilmente automatizado.
Fig. 5.2. Calibração a seco de transmissor inteligente
Por exemplo, a calibração a seco de um
transmissor inteligente de pressão não requer
um padrão externo de pressão, mas usa
constantes internas armazenadas durante a
configuração e caracterização do transmissor.
Em programa de qualidade de ISO 9000, a
calibração a seco é tão válida e confiável como
a convencional, porém, periodicamente deve
ser feita a calibração convencional para
verificar o status do sensor do instrumento, que
é contornado nas calibrações a seco. Por
exemplo, podem-se alternar duas ou três
calibrações a seco com uma calibração
convencional.
Calibração molhada, por analogia à
calibração a seco, é a convencional, usando
padrões externos para calibrar o instrumento.
No caso da calibração do transmissor de
pressão, usa-se o padrão de pressão na
entrada do transmissor. Nesta calibração,
estão incluídos todos os componentes do
instrumento, inclusive o elemento sensor
Fig. 5.3. Conceito de calibração a seco (Fluke)
125
Confirmação Metrológica
1.6. Erros de calibração
Teoricamente, a calibração em si não
elimina os erros sistemáticos, mas
simplesmente reduz estes erros a valores
aceitáveis. Os erros de calibração incluem
aqueles erros elementares que entram no
sistema de medição durante o ato da
calibração. Os erros de calibração tendem a
entrar através de várias fontes, tais como:
1. os erros sistemáticos do padrão usado
na calibração,
2. os erros associados ao ambiente,
3. os erros associados ao operador,
4. erros associados à variável medida,
5. erros associados ao instrumento
calibrado,
6. erros associados ao método de
calibração
Tab. 5.1. Fontes de Erro de Calibração
j
1
2
3
4
5
6
Fonte de erro
Padrões envolvidos na rastreabilidade
Método da calibração
Ambiente onde se realiza a calibração
Operador que faz a calibração
Instrumento que está sendo calibrado
Quantidade física envolvida na calibração
Por exemplo, o padrão típico do laboratório
usado na calibração também é aproximado.
Assim, pode haver uma diferença entre o valor
do padrão usado e o valor do padrão primário
que ele representa. Assim, aparece uma
incerteza no valor conhecido da entrada em
que a calibração é baseada. Além disso, pode
haver uma diferença entre o valor fornecido
pelo padrão e o valor realmente sentido pelo
sistema de medição. Qualquer um destes
efeitos será incorporado aos dados de
calibração. A Tab. 1 lista erros elementares
relacionados com a calibração.
1.7. Calibração da Malha
Justificativa
Sempre que possível deve ser feita a
calibração da malha in situ (como regra) e em
caso de não conformidade, se faz a calibração
por instrumento (como exceção). As vantagens
de se fazer a calibração da malha em vez do
instrumento isolado incluem:
1. gasta-se menos tempo pois uma malha
típica possui três instrumentos,
2. a calibração é mais confiável, pois não
se tem o risco de descalibrar o
instrumento na sua retirada, transporte e
recolocação,
3. a calibração é mais exata, pois todos os
efeitos da instalação estão considerados
inerentemente,
4. tem-se a medição e não o cálculo da
incerteza, coerente com a
recomendação metrológica de não
imaginar quando puder calcular e não
calcular quando puder medir.
A principal desvantagem relacionada com a
calibração de malha é a necessidade de se ter
padrões que possam ser usados na área
industrial. Os padrões devem ter classificação
mecânica compatível com a área, se interna ou
externa, para ter sua integridade preservada.
Se a área for classificada, os padrões elétricos
devem ter classificação elétrica compatível,
para que sua presença não aumente o risco de
explosão ou incêndio do local. Quando não for
disponível padrão elétrico com classificação
elétrica compatível com a área, deve-se
garantir com meios positivos que não há
presença de gases flamáveis no local e durante
a calibração e para isso deve-se conseguir
uma permissão especial (hot permission).
Realização da Calibração da Malha
A calibração da malha inclui:
1. Variação da variável medida ou geração
de sinal equivalente ao gerado pelo
sensor da variável no local próximo da
medição. As malhas são calibradas em
pontos definidos nos procedimentos
específicos, normalmente nos pontos de
0%, 25%, 50%, 75% e 100% da faixa,
com valore crescentes e decrescentes.
2. Leitura e registro dos valores da variável,
na sala de controle. Registro dos valores
efetivamente lidos e ajustes feitos no
Relatório de Calibração. No Relatório de
Calibração de cada instrumento já
devem estar listados os valores limites
aceitáveis, considerando-se a tolerância
exigida pelo processo e a incerteza
instalada calculada.
3. A malha é considerada conforme e
nenhum ajuste é feito, quando os valores
lidos estiverem dentro dos limites
estabelecidos e anotados nos registros
de calibração de cada malha
4. Quando algum valor estiver fora dos
limites, a malha é considerada não
conforme, a operação deve ser
informada através do formulário
Relatório de Calibração, os instrumentos
são retirados da malha e é feita a
calibração de cada instrumento isolado,
126
Confirmação Metrológica
na bancada da oficina de
instrumentação, conforme
procedimentos correspondentes.
Incerteza da calibração da malha
No formulário Registro de Calibração deve
ser informada a incerteza do processo de
calibração, que é dada pela relação:
ip =
n
∑ ipj2
j =1
onde
ip é a incerteza do processo de calibração,
ipj é a incerteza dos padrões de calibração,
com j variando entre 1 e n.
Calibração do Elemento Sensor
Embora o elemento sensor faça parte da
malha de medição, por causa da dificuldade de
se simular a variável do processo no campo,
geralmente se simula o sinal de saída do
sensor, no local da medição para se calibrar a
malha e calibra-se o elemento sensor na
bancada ou o substitui por um novo rastreado e
certificado. A decisão entre calibrar o sensor
existente ou substituí-lo por um novo rastreado
é uma decisão baseada na relação
custo/benefício.
Tipicamente, nos casos de termopares e
resistores detectores de temperatura, deve-se
fazer a substituição em vez de calibração. No
caso de placas de orifício, deve-se fazer
inspeção visual e física periódica e apenas
substituí-la quando esta inspeção o indicar.
Calibração do Instrumento Isolado
As malhas que não puderem ser calibradas
inteiramente como um único instrumento,
devem ter seus instrumentos componentes
calibrados individualmente. Também, quando a
calibração da malha indicar que ela está não
conforme, os instrumentos são retirados da
malha e levados para calibração individual,
conforme procedimentos específicos, que
estabelecem o executante, esclarecem a
disponibilidade da malha pela operação e a
substituição do instrumento. Depois de
calibrado o instrumento é armazenado na
oficina ou substitui o existente. Quando o
instrumento não pegar calibração, ele é
submetido à manutenção corretiva e depois
calibrado e todos estas operações devem ser
anotadas em sua Folha de Cadastro.
1.8. Parâmetros da Calibração
Além dos aspectos comerciais envolvidos e,
às vezes, dos aspectos legais, a calibração
para ser válida e confiável deve cuidas dos
seguintes aspectos:
1. medições replicadas
2. padrões rastreados
3. procedimento escrito
4. ambiente conhecido
5. pessoal treinado
6. registro documentado
7. período de validade administrado
Medições replicadas
Toda calibração deve ter várias medições
de cada ponto de calibração. Os pontos de
calibração preferidos são: 0%, 25, 50, 75 e
100%, com valores crescentes e decrescentes
da variável calibrada. A repetição das
medições tem a finalidade de verificar
linearidade, repetitividade e histerese do
instrumento. Por questão de economia de
tempo, é comum se fazer apenas uma medição
ascendente e outra descendente, fazendo-se
apenas duas medições de cada ponto.
Padrão rastreado
Toda calibração requer um padrão para
fornecer os valores verdadeiros convencionais
envolvidos. O padrão fornece o valor confiável,
fiduciário da variável calibrada.
Padrão rastreado significa que ele foi
comparado com um outro padrão superior, que
garanta sua confiabilidade. Os padrões de
referência devem possuir exatidão maior que a
dos instrumentos ou padrões sob calibração.
Os padrões de referência de ordem superior
devem ser rastreados aos padrões
credenciados ou nacionais ou derivados de
constantes físicas.
As normas e os laboratórios recomendam
números limites entre as exatidões dos
instrumentos calibrados e dos padrões. Por
exemplo, o NIST recomenda a relação mínima
de 4:1; o INMETRO recomenda a relação 3:1 e
as normas militares falam de 10:1. Porém,
todos estes números são sugestões e não são
mandatórios. O risco aceitável associado com
a medição varia com cada processo e em uma
mesma planta, podem se adotar relações de
incertezas diferentes. O estabelecimento da
relação se baseia em aspectos econômicos
(quanto maior a relação, maior o custo dos
padrões da escada metrológica) e técnicos
(quanto maior o número, menor a interferência
da incerteza do padrão na incerteza do
instrumento calibrado). O resultado final desta
escolha é um compromisso entre os valores de
aceitação e de incerteza.
Os padrões de referência selecionados
através das especificações do fabricante
devem ser continuamente acompanhados e
monitorados para comprovar a estabilidade e o
127
Confirmação Metrológica
desempenho, através de calibrações
sucessivas.
Procedimentos de Calibração
Devem ser escritos procedimentos de
calibração de instrumentos para eliminar fontes
de erros devidas às diferenças de técnicas,
condições do ambiente, escolha dos padrões e
dos acessórios e mudança do técnico
calibrador. Estes procedimentos não são os
manuais de calibração do fabricante. Os
procedimentos devem incluir os aspectos
técnicos destes manuais de operação, porem
devem ser mais abrangentes.
Os procedimentos devem ser usados pelo
pessoal envolvido e responsáveis pela
calibração. Eles devem ser elaborados com a
participação ativa deste pessoal. Os
procedimentos devem garantir que:
1. pessoas diferentes obtenham o mesmo
resultado quando calibrando
instrumentos iguais ao mesmo tempo,
2. a mesma pessoa obtenha o mesmo
resultado quando calibrando o mesmo
instrumento em épocas e locais
diferentes.
Os procedimentos devem ser escritos numa
linguagem simples, clara e acessível e o seu
conteúdo deve ter, no mínimo,
1. objetivo do procedimento
2. normas de referência e recomendações
do fabricante
3. lista dos padrões requeridos
4. lista dos instrumentos de teste, fontes de
alimentação, pontos de teste e ligações
5. descrição do princípio de medição ou
teoria do método empregado
6. estabelecimento das condições
ambientais do local onde será feita a
calibração: temperatura, pressão,
umidade, posição, vibração, blindagem a
ruídos elétricos e acústicos
7. instruções, passo a passo, da calibração,
envolvendo preparação, ajustes, leituras,
comparações e correções
8. formulários para a coleta e anotação dos
dados, relatórios, tabelas e certificados.
9. estabelecimento da próxima data de
calibração.
No Apêndice A há um procedimento típico
para a calibração de malha de instrumento de
processo.
Condições Ambientais
As condições ambientais de calibração do
instrumento devem ser as recomendadas pelos
procedimentos e pelos fabricantes do
instrumento e dos padrões envolvidos. A
maioria dos instrumentos de processo não
requer condições ambientais controladas. Isto
é tão verdade, que a tendência atual é fazer a
calibração dos instrumentos na área industrial.
As condições envolvidas na calibração não
precisam ser controladas mas sempre devem
ser conhecidas, por causa de eventuais fatores
de correção para os padrões usados.
Quando requerido, a área deve ser limpa,
sem vibração mecânica, sem interferências
eletrostáticas e eletromagnéticas quando
houver envolvimento de equipamentos elétricos
e com a temperatura na faixa de 17 a 21 oC e
umidade relativa entre 35 e 55%.
Intervalos de calibração
Os instrumentos de medição industriais
devem ser calibrados periodicamente por
instrumentos de teste de trabalho. Os
instrumentos de trabalho devem ser calibrados
periodicamente por padrões secundários ou de
transferência. Os instrumentos de transferência
secundária devem ser calibrados com padrões
primários ou de referência.
Os períodos de cada calibração dependem
da qualidade do instrumento, das condições
ambientais, do treinamento do pessoal
envolvido, do tipo da indústria, da idade dos
instrumentos, da manutenção corretiva dos
instrumentos. Os períodos não são imutáveis e
nem fixos. Podem ser alterados em função de:
1. recomendações do fabricante,
2. legislação vigente
3. freqüência de utilização (maior uso
implica em períodos mais curtos). Uso
incorreto requer recalibração imediata.
4. severidade e agressão ambiental. Maior
agressividade do ambiente implica em
menor período de calibração.
5. características de construção do
instrumento; instrumento mais frágil
requer calibrações mais freqüentes;
instrumentos com peças moveis
requerem calibrações mais freqüentes.
6. precisão dos instrumentos em relação à
tolerância do produto ou da medição;
menor tolerância do produto, calibração
mais freqüente dos instrumentos
envolvidos.
7. posição na escada hierárquica de
rastreabilidade: geralmente instrumentos
mais próximos da base da pirâmide
(menos precisos, de medição e de teste
de oficina) requerem calibrações mais
freqüentes que os do topo (mais
precisos, padrões primários).
8. criticidade e importância da medição
efetuada; maior a conseqüência do erro,
implica em menor intervalo de
segurança. Medição envolvendo
segurança, menor período de calibração;
medição envolvendo vidas humanas,
128
Confirmação Metrológica
obrigação legal de calibração,
geralmente com períodos definidos por
lei.
Revisão dos intervalos de calibração
Um sistema eficiente de calibração deve ter
ferramentas que permitam a revisão dos
intervalos de calibração, com critérios
baseados em dados obtidos das calibrações
anteriores e que seja um compromisso entre se
ter menos trabalho de calibração e menos não
conformidades por causa de instrumentos
descalibrados.
O critério mostrado a seguir se baseia no
critério de Schumacher.
1. A cada calibração feita, o instrumento é
classificado em relação aos resultados
obtidos, conforme a Tab.1:
Tab.5.2. Status do Instrumento
A
Avaria
C
Conforme
F
Fora
Designa problema que prejudica
um ou mais parâmetros ou
funções do instrumento.
Designa instrumento encontrado
conforme com sua tolerância
durante a calibração.
Designa instrumento, apesar de
apresentar bom funcionamento,
encontrado fora das tolerâncias
de calibração.
Com base na situação encontrada de
conformidade nos ciclos anteriores, será
tomada uma das ações da Tab.5.2:
Para a aplicação do critério, deve ser
consultada a Tab. 5.3 e Tab. 5.4.
Tab.5.3. Ações a serem tomadas
E
Estender
D
Diminuir
M
Máxima
Redução)
P
Permanece
Indica que o intervalo entre
calibrações deve ser
estendido.
Indica que o intervalo entre
calibrações deve ser reduzido.
Indica redução do ciclo de
calibração ao seu intervalo
mínimo admissível.
Não se altera o intervalo
anteriormente estabelecido
Tab. 5.4. Classificação do Instrumento
Ciclos
Anteriores
Condições no
Recebimento
A
P
P
P
M
M
P
M
M
P
M
M
CCC
FCC
ACC
CF
CA
FC
FF
FA
AC
AF
AA
F
D
D
D
M
M
M
M
M
D
M
M
C
E
P
E
P
P
P
P
P
P
P
P
Tab. 5.5. Determinação do próximo ciclo
Ciclo
Atual
10
12
14
16
18
20
24
28
32
36
52
D
9
11
13
14
16
18
22
25
29
32
47
Novo Ciclo (Valores Em
Semanas)
E
P
M
13
10
*
15
12
8
17
14
8
19
16
10
21
18
12
24
20
13
28
24
15
32
28
19
37
32
21
41
36
24
52
52
37
* Retirar Instrumento de Uso. Substituir
Registros documentados
A documentação registrada garante e
evidencia que os prazos de validade da
calibração estão sendo seguidos e que a
exatidão dos instrumentos está sendo mantida.
As seguintes informações devem ser
facilmente disponíveis:
1. exatidão do instrumento
2. local de uso atual
3. intervalo de calibração, com data de
vencimento
4. procedimento da calibração
5. relatório da última calibração
6. histórico de manutenções e reparos
Todas as calibrações para serem válidas
devem ser devidamente certificadas. Os
129
Confirmação Metrológica
certificados devem ser arquivados e devem
conter, no mínimo,
1. número de série do instrumento
correspondente
2. data de calibração
3. laboratório ou padrão rastreado
4. condições físicas nas quais foi feita a
calibração
5. descrição do padrão referido: exatidão,
tipo
6. desvios e fatores corretivos a serem
aplicados, quando as condições da
calibração forem diferentes das
condições padrão
7. quando feito em laboratório externo
(credenciado, nacional), descrição do
procedimento e pessoal envolvido
8. garantia que o padrão superior estava
confiável e rastreado, através de
certificado.
Deve haver um responsável pela
organização e atualização do arquivo. O
responsável do arquivo deve providenciar:
1. aviso de vencimento de prazo de
validade ao responsável do
instrumento
2. retirada do instrumento de operação
3. encaminhamento do instrumento para
a calibração interna ou externa
4. recebimento do instrumento calibrado
5. atualização das datas e dos
documentos
6. encaminhamento do instrumento para
o usuário responsável
7. colocação de etiquetas nos
instrumentos, com data da última
calibração, nome da pessoa
responsável pela calibração, data da
próxima calibração e identificação do
instrumento.
5. se necessário, implantar laboratórios de
calibração das variáveis, como
temperatura, vazão, pressão, voltagem e
resistência elétrica.
6. pesquisar, conhecer e credenciar os
laboratórios externos para fins de
intercâmbio laboratorial e mútua
rastreabilidade. Há laboratórios de
usuários que são tecnicamente
aceitáveis, mesmo não tendo o
credenciamento legal do INMETRO
7. definir a escada de rastreabilidade,
separando os instrumentos que podem
ser calibrados internamente e os que
devem ser enviados para laboratórios
externos
8. elaborar cronogramas de tais
calibrações, acompanhando as datas de
vencimento
9. Elaborar procedimentos para calibrações
internas, para envio e recebimento de
instrumentos para laboratórios externos
10. implantar arquivo para documentação
de todos os históricos
11. treinar o pessoal para as atividades de
operação, calibração, armazenamento,
manuseio e preservação dos
instrumentos e padrões
12. elaborar plano de calibração.
Sistema de Calibração
A implantação adequada de um sistema de
calibração de instrumentos requer as seguintes
providências:
1. listar individualmente todos os
instrumentos de medição, teste e padrão
da empresa, incluindo os do processo,
oficina, laboratórios, armários do chefe.
2. estabelecer os padrões e instrumentos
mestres necessários para a empresa,
baseando-se em fatores econômicos,
técnicos, segurança, produção e
qualidade do produto.
3. adquirir os padrões necessários e
justificados
4. prover local adequado para
armazenamento, guarda, preservação e
operação dos instrumentos de teste e
padrões.
130
Confirmação Metrológica
Fazer ligações com padrões
conforme Procedimento ou MF
Aplicar sinais de entrada
Ler sinais de saída
CALIBRAÇÃO
Comparar com valores
limites do Relatório
SIM
DENTRO
AJUSTE
NÃ
O
Fazer ajustes de zero, span e
outros aplicáveis conforme MF
Aplicar sinais de entrada
Ler sinais de saída
Desfazer ligações com
padrões
Etiquetar instrumento calibrado
Proteger e lacrar pontos de ajuste
Arquivar Relatório de
Calibração
FIM
Comparar com limites do
Relatório de Calibração
SIM
DENTRO
MANUTENÇÃO
NÃ
O
Fazer manutenção corretiva
conforme procedimento
Anotar valores finais no
Relatório de Calibração
Desfazer ligações com padrões
Arquivar Relatório de Calibração
Etiquetar instrumento como
não adequado ao uso
Desfazer ligações
FIM
Etiquetar instrumento calibrado
Proteger e lacrar pontos de ajuste
Fazer relatório de Não Conformidade e
distribui-lo para ações corretivas
Fig. 5.4.- Diagrama de blocos da calibração de instrumento isolado
FIM
131
Confirmação Metrológica
Fazer ligações com padrões
conforme Procedimento ou MF
Aplicar sinais na entrada da malha
Ler sinais da variável no display da
sala de controle
CALIBRAÇÃO
DA MALHA
Anotar valores lidos na Ficha Calibração
Comparar com limites estabelecidos
SIM
DENTRO
NÃO
CALIBRAÇÃO E
AJUSTE DOS
INSTRUMENTOS
Desfazer ligações com padrões
Etiquetar malha calibrada
Desfazer a malha e calibrar cada
instrumento individualmente
Arquivar Ficha de Calibração
Calcular incerteza da malha
combinada com a do sensor
FIM
Comparar com tolerância do processo
SIM
MENOR
NÃO
Malha não conforme para processo.
Fazer relatório de não conformidade
Malha não conforme para calibração
mas conforme para o processo
FIM
Fig. 5.5. - Diagrama de blocos da calibração de malhaFIM
completa
132
Confirmação Metrológica
Calibração e manutenção
O objetivo da calibração é o de eliminar os
erros sistemáticos que aparecem ou aumentam
com o passar do tempo. O valor esperado das
várias medições replicadas de um mesmo valor
da variável medida tende a se afastar do valor
verdadeiro convencional e por isso o
instrumento deve ser calibrado,
periodicamente.
Também com o passar do tempo o
instrumento tende a piorar o seu desempenho
e apresentar uma incerteza além dos limites
estabelecidos para a incerteza nominal. Neste
caso o instrumento requer manutenção. A
manutenção deve ser criteriosa e devem ser
tomados cuidados para que o desempenho do
instrumento não se degrade, usando-se peças
originais, ferramentas adequadas,
componentes de qualidade industrial.
Componentes para a indústria de
entretenimento, são mais baratos, mais fáceis
de serem encontrados porém são menos
confiáveis e com menor vida útil.
A manutenção deve ser feita quando o
instrumento estiver visivelmente danificado,
não operante ou com desempenho deteriorado.
Esta manutenção é chamada de corretiva.
A manutenção pode ser feita de
periodicamente, de modo programado. Na data
marcada, faz-se a manutenção do instrumento.
Nem sempre é possível se programar a data
para a manutenção preventiva para qualquer
tipo de instrumento. A manutenção preventiva
só deve ser feita em instrumentos que tenham
causa constante, ou seja, instrumentos que
tenham peças que se desgastam de modo
previsível. Tipicamente se faz manutenção
preventiva em instrumento com peças móveis
que se desgastam de modo previsível e
estimado.
Depois da manutenção corretiva ou
preventiva do instrumento, ele deve ser
calibrado e se necessário, ajustado.
Durante a calibração do instrumento podese verificar a necessidade de fazer
manutenção no instrumento. Tipicamente temse:
1. Calibração do instrumento, onde e
quando se verifica se o desempenho do
instrumento está dentro do esperado.
2. Quando o desempenho estiver fora dos
limites predeterminados, fazem-se os
ajustes, levando o instrumento para o
seu desempenho nominal.
Quando os ajustes no instrumento forem
incapazes de levar o instrumento para o seu
desempenho nominal, é necessário fazer
manutenção, trocando peças e componentes.
3. Padrões
Quando um sistema de medição é
calibrado, ele é comparado com algum padrão
cujo valor é presumivelmente conhecido. Este
padrão pode ser outro instrumento, um objeto
tendo um atributo físico bem conhecido a ser
usado como comparação, uma solução com
propriedade química bem conhecida ou uma
técnica conhecida e bem aceita para produzir
um valor confiável. Um padrão é a base de
todas as medições, em um laboratório ou
oficina, em uma indústria, em um país e no
mundo.
Uma dimensão (em um sentido mais amplo)
define uma variável física que é usada para
descrever algum aspecto de um sistema físico.
O valor fundamental associado com qualquer
dimensão é dada por uma unidade. Uma
unidade define uma medida de uma dimensão.
Por exemplo, massa, comprimento e tempo
descrevem dimensões básicas, com as quais
associamos as unidades de kilograma, metro e
segundo, respectivamente. Um padrão primário
define o valor de uma unidade, fornecendo os
meios para descrever a unidade com um único
número que pode entendido por todos e em
todo lugar. Assim, o padrão primário atribui um
único valor a uma unidade por definição. Como
tal, ele deve definir a unidade exatamente.
Padrões primários são necessários, por que
o valor atribuído a uma é arbitrário. Se um
metro é o comprimento do braço do rei ou a
distância que a luz percorre em uma fração de
segundo depende somente de como alguém
quis definí-lo. Para evitar confusão, as
unidades são definidos por acordo
internacional através do uso de padrões
primários. Depois de consensado, o padrão
primário forma a definição exata da unidade até
que ela seja mudada por algum outro acordo
posterior, que tenha vantagens sobre a
definição anterior.
As principais características procuradas em
um padrão são:
1. disponibilidade global
2. confiabilidade continuada
3. estabilidade temporal e espacial
com mínima sensibilidade às fontes externas
do ambiente.
No Brasil, os padrões primários (referência)
e secundários (transferência) são mantidos no
INMETRO. Periodicamente, o INMETRO
também calibra seus próprios padrões de
transferência.
3.1. Padrões físicos e de receita
A medição requer a definição de unidades,
estabelecimento de padrões de medição,
133
Confirmação Metrológica
formação de escalas e comparação de
quantidades medidas com as escalas. O
padrão fornece a ordem de comparação e a
base de toda calibração.
Foram estabelecidos os conceitos de
padrão material e de receita.
Padrão físico ou material é baseado em
uma entidade física, como uma quantidade de
metal ou um comprimento de uma barra de
metal. O padrão material é físico e deve ser
armazenado em condições de temperatura,
pressão e umidade especificas e ser rastreado
periodicamente. Exemplo de padrão físico é
kilograma físico, padrão de massa no SI, que
consiste em um cilindro de platina-irídio, com
39 mm de altura e de diâmetro e que
recentemente engordou, passando para 1,000
030 kg. Este padrão está preservado e guardo
em Sèvres, França e uma réplica dele está
guardada no INMETRO, em Xerém, RJ, Brasil.
Padrão de receita pode ser reproduzido em
qualquer laboratório do mundo, baseando-se
em fenômenos físicos, procedimentos e
métodos específicos. O padrão de receita
substitui o padrão físico por causa da maior
facilidade de reprodução e de disponibilidade.
Antes de 1960 a unidade de comprimento
era um padrão físico, consistindo de uma barra
de Pt-Ir guardada em Sèvres.
Em 1960, a unidade de comprimento foi
redefinida em termos de padrão de receita
óptico, como sendo equivalente a 1 650 763,73
vezes o comprimento de onda da luz laranjavermelha de uma lâmpada de Kr86.
Em 1983, o metro foi redefinido em função
do trajeto percorrido por uma onda
eletromagnética plana, no vácuo, durante 1/299
792 458 de segundo.
Atualmente, a única unidade definida como
padrão material é o kilograma; todas as outras
unidades são fixadas por meio de definições de
receitas. O tempo foi a última unidade a ser
substituída, tendo sido domínio dos
astrônomos por milhares de anos.
que tentam duplicar os padrões primários. O
padrão primário é usado como referência para
o padrão secundário, que é usado como
transferência. O padrão secundário é uma
aproximação razoável do primário e pode ser
mais facilmente acessível para calibrações.
Porém, deve haver um valor de incerteza
razoável no uso de padrões que são réplicas
dos padrões primários. No topo da pirâmide de
hierarquia, logo abaixo do padrão primário,
estão os padrões primários mantidos pelos
laboratórios nacionais através do mundo. No
Brasil, o INMETRO mantém os padrões
primários e secundários e os procedimentos
padrão recomendados para a calibração dos
sistemas de medição.
Cada nível de hierarquia é derivado por
calibração contra o padrão do nível anterior
mais alto. Quando se move para baixo da
pirâmide, passa-se do padrão primário
(referência), para o secundário (transferência),
para o local e para o padrão de trabalho,
sempre com um grau de precisão menor ou
com maior incerteza.
Como a calibração determina a relação
entre o valor de entrada e o de saída, a
exatidão da calibração depende, em parte, da
exatidão do padrão usado. Mas o padrão de
trabalho usado contem algum erro e como a
exatidão é determinada? No máximo, a
exatidão pode somente ser estimada. E a
confiança desta estimativa depende da
qualidade do padrão e da técnica de calibração
usada.
Padrão
primário
3.1. Rastreabilidade
O valor conhecido da entrada para um
sistema de medição durante uma calibração é
o padrão na qual a calibração se baseia.
Obviamente, o padrão primário real pode ser
impraticável como padrão para usar em uma
calibração normal. Mas, eles servem como
referência por causa da exatidão. Não é
razoável viajar para Sèvres, na França, para
calibrar uma balança analítica de laboratório
que necessita de um peso padrão. E chegando
na França, o acesso ao kilograma padrão nem
seria permitido. Assim, por razões práticas,
existe uma hierarquia de padrões secundários
Aumento da
precisão
P. ex., balança pressão Inmetro
Padrão
secundário
P. ex., bomba peso morto
Padrão
trabalho
P. ex., manômetro master
Instrumento
calibrado
P. ex., manômetro
Fig. 5.6. Rastreabilidade dos padrões
Rastreabilidade (traceability) é o princípio
em que a incerteza de um padrão é medida
contra um padrão superior, permitindo que a
incerteza do instrumento seja certificada. Isto é
conseguido por uma auditoria para cima, de
134
Confirmação Metrológica
padrões mais baixos para padrões superiores.
Todo sistema válido de padrões deve se
conformar com este princípio da
rastreabilidade, onde o padrão inferior que é
calibrado contra um padrão superior é
certificado e sua incerteza é garantida.
Os instrumentos de medição das variáveis
do processo requerem calibrações periódicas,
referidas a padrões de oficina. Periodicamente,
os padrões de oficina também devem ser
calibrados e rastreados com outros padrões
interlaboratoriais e padrões de referência
nacional. Para isso, é fundamental que as
quantidades físicas envolvidas tenham os seus
padrões definidos e disponíveis.
A exatidão do nível superior deve ser maior
que a do nível inferior de um fator variando, por
exemplo, de 4 a 10. Quanto menor o fator (4), a
exatidão do padrão influi e interfere na exatidão
do instrumento calibrado. Quanto maior o fator
(10), maior o custo do padrão. Pode-se até
fazer a calibração com um instrumento com
mesma classe de precisão (cross checking).
Geralmente é aplicada no recebimento de
instrumentos, após transporte para verificação
de violações ou antes da data do vencimento
de calibração, apenas para verificar a
manutenção da exatidão.
Há vários tipos diferentes de padrões de
medição, classificados conforme a função e o
tipo de aplicação.
1. internacional e nacional
2. primário e secundário
3. referência e transferência
4. de trabalho e de oficina
Padrão Internacional e nacional
Os padrões internacionais são os
dispositivos projetados e construídos para as
especificações de um fórum internacional. Eles
representam as unidades de medição de várias
quantidades físicas na maior precisão possível
que é obtida pelo uso de técnicas avançadas
de produção e medição. Eles estão guardados
em Sèvres e não são disponíveis para o
usuário comum e suas necessidades diárias de
calibração.
Os padrões internacionais são definidos de
modo que possam ser reproduzidos em um
grau aceitável de exatidão e quando definidos,
o problema seja realizar este padrão. Há um
padrão primário para cada unidade. No caso da
massa, há um bloco cilíndrico de Pt-Ir
guardado em Sèvres, França, de modo que
massas semelhantes possam ser comparadas
com o protótipo com precisão de 10-8. As
outras quantidades são definidas por padrões
primários reprodutíveis, ou seja, que podem ser
estabelecidas localmente, quando necessário.
Na prática, os equipamentos e procedimentos
envolvidos requerem laboratórios altamente
especializados. Os padrões internacionais são
primários.
Padrão nacional é o de mais alto nível
dentro de um país. O INMETRO, no Rio de
Janeiro, RJ, é responsável legal pela
manutenção dos padrões primários no Brasil.
Estes padrões primários não saem do
INMETRO. A principal função de um padrão
primário é a calibração e verificação dos
padrões secundários. No Brasil, o INMETRO
credencia os laboratórios que forma a Rede
Brasileira de Calibração. Os laboratórios da
Rede servem de referência para calibrações
secundárias. Por exemplo, o laboratório
industrial da Yokogawa (São Paulo, SP) é
credenciado pelo INMETRO para calibrar
voltagem, corrente e resistência elétrica. O
laboratório industrial da Companhia Siderúrgica
de Tubarão (Vitória, ES) está credenciado pelo
INMETRO para referência de temperatura. O
laboratório de Vazão do Instituto de Pesquisas
Tecnológicas (São Paulo, SP) está
credenciado pelo INMETRO para
rastreabilidade de medidores de vazão de
líquido, dentro de determinadas faixas. O
Apêndice D mostra os laboratórios da Rede
Brasileira credenciados até JAN 96.
Padrão primário ou de referência
Os padrões primários são dispositivos
mantidos pelas organizações e laboratórios
nacionais, em diferentes partes do mundo. Eles
representam as quantidades fundamentais e
derivadas e são calibrados de modo
independente, através de medições absolutas.
A principal função dos padrões primários é a de
calibrar e certificar periodicamente os padrões
secundários. Como os padrões internacionais,
os primários não são disponíveis para o
usuário final.
O padrão primário é também chamado de
padrão de referência. Ele é fixo e reprodutível,
não sendo acessível como objeto de calibração
industrial e é necessário padrões práticos para
as quantidades derivadas.
Os padrões primários são os mais precisos
existentes. Eles servem para calibrar os
secundários. Todos os padrões primários
precisam ter certificados. Os certificados
mostram a data de calibração, precisão,
condições ambientes onde a precisão é válida
e um atestado explicando a rastreabilidade
com o Laboratório nacional. O padrão primário
é certificado por padrões com maior hierarquia.
Quando o sistema é calibrado contra um
padrão primário, tem-se uma calibração
primária. Após a calibração primária, o
equipamento é empregado como um padrão
secundário. O resistor e a célula padrão,
135
Confirmação Metrológica
comercialmente disponíveis são exemplos de
calibração primária.
Há ainda um outro significado para padrão
primário, com relacionado com o seu grau de
precisão ou posição na pirâmide de
rastreabilidade, mas com a sua fabricação.
Existem instrumentos e dispositivos que, por
construção, possuem uma propriedade
conhecida e constante dentro de determinado
limite de incerteza. Esta propriedade pode ser
usada para calibrar outros instrumentos ou
padrões de menor precisão. Sob este enfoque,
são considerados padrões primários a placa de
orifício, bocal sônico, célula Weston, diodo
zener e resistência de precisão.
A placa de orifício é considerada um padrão
primário de vazão, pois ela é dimensionada e
construída segundo leis físicas aceitas e
confirmadas experimentalmente, de modo que
ela mede a vazão teórica dentro de
determinado limite de incerteza e desde que
sejam satisfeitas todas as condições do
projeto. A calibração de um sistema de
medição com placa de orifício não requer um
padrão de vazão, mas somente um padrão de
pressão diferencial, que é o sinal gerado pela
placa e relacionado com a vazão medida.
Um bocal sônico é também um padrão
primário de vazão. Ele é dimensionado e
construído segundo uma geometria definida e
valores de pressão a montante e jusante
teóricos, de modo que, numa determinada
situação passa por ele uma vazão conhecida e
constante, que pode ser usada para calibrar
outros medidores de vazão. Por construção e
teoria, ele grampeia um determinado valor de
vazão que passa por ele.
Analogamente ao bocal sônico, o diodo
zener é um padrão primário de tensão elétrica.
Por construção e por causa do efeito Zener e
em determinada condição de polarização e
temperatura, o diodo zener mantém constante
uma tensão nominal através de seus terminais
e esta tensão conhecida e constante pode ser
usada para calibrar outros medidores de
tensão.
Uma célula Weston é um padrão primário
de tensão elétrica, pois, por construção e sob
determinada corrente, ela fornece uma tensão
constante e igual a 1,018 636 V @ 20 oC.
Mesmo que estes padrões não tenham a
menor incerteza da pirâmide metrológica de
sua quantidade física, eles são chamados
também de padrões primários.
Padrão secundário ou de transferência
Os padrões secundários são também
instrumentos de alta precisão mas de menor
precisão que a dos padrões primários e podem
tolerar uma manipulação normal, diferente do
extremo cuidado necessário para os padrões
primários. Os padrões secundários são usados
como um meio para transferir o valor básico
dos padrões primários para níveis hierárquicos
mais baixos e são calibrados por padrões
primários.
O padrão secundário é o padrão de
transferência. Ele é o padrão disponível e
usado pelos laboratórios de medição e
calibração na indústria. Cada laboratório
industrial é responsável exclusivo de seus
padrões secundários. Cada laboratório
industrial deve periodicamente enviar seus
padrões secundários para os laboratórios
nacionais para serem calibrados contra os
primários. Após a calibração, os padrões
secundários retornam ao laboratório industrial
com um certificado de precisão em termos do
padrão primário.
Fig. 5.7. Instrumento padrão de oficina (HP)
Padrão de Oficina
Os padrões de oficina são dispositivos de
alta precisão e comercialmente disponíveis,
usados como padrões dos laboratórios
industriais. Eles não são usados para o
trabalho diário de medições, mas servem como
referência de calibração para os instrumentos
de uso geral e diário. Os padrões de oficina
devem ser mantidos em condições especificas
de temperatura e umidade. A calibração com
os padrões de oficina é chamada de calibração
secundária. Usa-se um dispositivo de
calibração secundária para a calibração de um
equipamento de pior precisão. A calibração
secundária é a mais usada na instrumentação.
Por exemplo, a célula padrão pode ser usada
para calibrar um voltímetro ou amperímetro
usado como padrão de trabalho. O voltímetro
padrão serve para calibrar um voltímetro de
menor precisão, que é usado para fazer as
medições rotineiras do trabalho.
136
Confirmação Metrológica
Fig. 5.8. Instrumento de medição (Foxboro)
Padrão de trabalho
Os padrões de trabalho são dispositivos de
menor precisão e comercialmente disponíveis,
usados como padrões para calibrar os
instrumento de medição do processo e dos
laboratórios industriais. Eles são usados para o
trabalho diário de medições. Geralmente são
portáteis e de uso coletivo e por isso sua
precisão se degrada rapidamente e requerem
calibrações freqüentes. Atualmente, com a
tendência de se calibrar a malha de processo
in situ, os fabricantes de instrumento
desenvolveram padrões de trabalho robustos e
precisos para calibração dos instrumentos da
área industrial.
Deve-se tomar cuidados especiais com o
uso dos instrumentos padrão elétricos portáteis
em local industrial, observando e cumprindo as
exigências de classificação mecânica, elétrica
e de temperatura, para não danificar o
instrumento e principalmente, não explodir a
área.
Fig. 5.9. Instrumentos padrão de trabalho (HP)
Materiais de Referência Certificada
Em laboratório químico e físico, é comum se
ter os Materiais de Referência Certificada ou
Materiais de Referência Padrão que contém
uma propriedade com nível de incerteza
conhecida. São exemplos:
1. solução padrão de pH para calibrar e
ajustar indicadores e transmissores de
análise de pH,
2. gases de pureza definida para calibrar
cromatógrafos
3. chapas de aço com revestimento
definido para calibrar e ajustar
indicadores de espessura a raios-X,
4. rochas, minerais, misturas de gases,
vidros, misturas de hidrocarbonetos,
polímeros, pós, águas de chuva e
sedimentos de rio e efluentes.
Os materiais de referência certificadas
podem ser preparados por síntese, pelo próprio
usuário ou podem ser comprados de
laboratórios nacionais ou internacionais,
credenciados ou com padrões rastreados.
Geralmente os materiais de referência
certificada tem prazos de validade e requerem
o controle da idade (age control).
4. Normas e Especificações
4.1. Norma
Norma é algo estabelecido pela autoridade,
usuário ou consenso geral como um modelo ou
exemplo a ser seguido. Existem normas de
conduta para uma sociedade política e normas
técnicas para uma sociedade tecnológica. Uma
norma técnica é uma regra para uma atividade
especifica, formulada e aplicada para o
beneficio e com a cooperação de todos os
envolvidos. Geralmente, uma norma é um
documento que estabelece as limitações
técnicas e aplicações para itens, materiais,
processos, métodos, projetos e práticas de
engenharia.
A norma é um documento que indica
materiais, métodos ou procedimentos de
fabricação, operação, manutenção ou testes de
uma certa classe de equipamentos ou
instrumentos. Por exemplo, há normas para
manômetros, termômetros, medidores de
vazão, vasos e tabulações de alta pressão. A
norma fornece limites na faixa de materiais e
propõe métodos aceitáveis, de modo que um
produto ou procedimento possa satisfazer o
objetivo para o qual ele foi projetado.
No Brasil, o órgão credenciado para gerar
normas é a Associação Brasileira de Normas
Técnicas (ABNT), que é uma empresa, nãogovernamental, sem fins lucrativos,
credenciado pelo INMETRO.
137
Confirmação Metrológica
4.2. Especificações
4.5. Abrangência das Normas
A função de uma especificação é a
descrição de um produto em termos da
aplicação que o usuário pretende fazer dele. A
especificação pode ter a mesma função da
norma e algumas especificações são, de fato,
normas ou elas podem ser derivadas e
resultados de uma norma.
As especificações usualmente são mais
detalhadas e menos genéricas para uma
aplicação particular do que as normas.
As especificações e normas formam a base
do sistema industrial. As especificações são
essenciais a toda operação de compra-venda,
tornando possível a padronização básica para
o sistema de fabricação em massa industrial.
Há cerca de 85 000 normas governamentais,
publicas e privadas em uso nos Estados
Unidos.
A norma pode ter quatro níveis em função
do grau de consenso necessário para seu
desenvolvimento e uso.
1. norma de companhia, é o nível mais
baixo, usado internamente para projeto,
produção, compra ou controle de
qualidade. O consenso é entre os
empregados da companhia.
2. norma da indústria desenvolvida
tipicamente por uma sociedade ou
associação profissional. O consenso
para estas normas é entre os membros
da organização.
3. norma governamental reflete muitos
graus de consensos. Às vezes, o
governo adota normas preparadas pela
iniciativa privada mas outras vezes elas
podem ser escritas por um pequeno
grupo.
4. norma de consenso total é o tipo de
norma desenvolvido por todos os setores
representativos, incluindo fabricantes,
usuários, universidades, governo e
consumidores.
4.3. Hierarquia
Pode-se identificar uma hierarquia de
normas usadas pela sociedade. As normas de
valor são as de mais alto nível, em termos de
seu impacto na sociedade. Estas normas
tratam da regulação de radioativadade e da
necessidade de água e ar limpo. As normas
regulatórias são derivadas das normas de valor
básicas. Há três tipos de normas regulatórias:
1. códigos e regulações da indústria, que são
produzidas pela indústria,
2. normas regulatórias consensuais
produzidas pelos membros das associações
de normas e governo,
3. normas regulatórias mandatórias que são
produtos exclusivos dos governos.
4.4. Tipos de Normas
A ABNT edita seis tipos diferentes de
normas:
1. método de teste descreve os procedimentos
para determinar uma propriedade de um
material ou desempenho de um produto,
2. especificação é uma declaração concisa
das exigências a serem satisfeitas por um
produto, material ou processo,
3. prática é o procedimento ou instrução para
auxiliar a especificação ou método de teste,
4. terminologia fornece as definições e
descrições dos termos, explicações de
símbolos, abreviações e acrósticos,
5. guia oferece uma série de opções ou
instruções mas não recomenda um modo de
ação especifico,
6. classificação define os arranjos sistemáticos
ou divisões de materiais ou produtos em
grupos baseados em características
similares.
4.6. Relação Comprador-Vendedor
As normas e especificações possuem as
funções comercial e legal de
1. estabelecer níveis de aceitação do
produto entre fabricante e comprador
2. fornecer os níveis de qualidade, funções
e desempenho do produto.
A norma deve ter o bom senso de
estabelecer limites tolerados razoáveis, de
modo que o preço do produto seja acessível e
o seu desempenho seja bom. O usuário quer
um bom produto e não uma excelente
especificação mas nenhum produto
comercialmente disponível. Para tanto:
1. o usuário deve saber o que quer e ter
clara a função do produto a ser aplicado.
O usuário deve estabelecer: faixa de
medição, exatidão, estabilidade,
configuração e condições do processo
que podem afetar o desempenho,
resposta e confiabilidade do produto
sendo aplicado.
2. o usuário deve conhecer as normas
técnicas e legais e determinar como elas
devem ser usadas para se obter o
desempenho projetado do produto.
3. o usuário e o fornecedor devem
concordar no documento de compra em
que partes da especificação aplicam-se
os limites concordados, que meios serão
empregados prelo fabricante para se
garantir que o produtor está dentro
destes limites e que meios o usuário
138
Confirmação Metrológica
deve empregar para verificar se o
produto entregue, de fato, satisfaz as
especificações e as normas envolvidas.
O uso inteligente de normas e
especificações garante produtos melhores e
medidores mais exatos e confiáveis nas
aplicações do usuário.
4.7. Organizações de Normas
Qualquer medição é feita com relação a
outra medição. Quando se fala de exatidão,
implica em uma medição comparada com
algum padrão aceitável para esta medição. Os
padrões nacionais para todas as medições no
Brasil estão guardados no INMETRO.
Tab. 5.4. Laboratórios Nacionais de
Metrologia
País
Brasil
EUA
França
UK
Alemanha
Itália
Laboratório
INMETRO - Instituto Nacional de
Metrologia, Normalização e
Qualidade Industrial
NIST - National Institute of
Standards and Technology (exNBS, National Bureau of Standards)
Bureau International de Poids et
Mesures
National Physical Laboratory
Physikalisch-Technische
Bundesanstalt (PTB)
Instituto de Metrologia Gustavo
Colonnetti
4.8. INMETRO
O Sistema Nacional de Metrologia,
Normalização e Qualidade Industrial
(SINMETRO) foi criado pela lei 5966 de 11
DEZ 73, com a finalidade de formular e
executar a política de Metrologia, Normalização
e Certificação de Qualidade dos produtos
brasileiros. O SINMETRO estabelece o
Sistema Nacional de Medição (SNM) e é
composto de:
1. INMETRO - Instituto Nacional de
Metrologia, Normalização e Qualidade
Industrial,
2. CONMETRO - Conselho Nacional de
Metrologia, Normalização e Qualidade
Industrial.
O INMETRO estabelece a base técnica,
legal e ética para todas as medições. O
processo de medição envolve amostras,
padrões físicos, materiais de referência
certificada, garantia da qualidade metrológica,
normas e procedimentos. O INMETRO é
também o depositário destes parâmetros. Para
realizar esta tarefa extensa, o INMETRO criou
a Rede Brasileira de Calibração, credenciando
laboratórios para emitir certificados de
calibração de grandezas físicas especificas.
Nesta rede, o INMETRO tem o nível mais alto
com os padrões nacionais.
Apostilas\Metrologia
5Calibração.DOC
24 SET 98 (Substitui 02 ABR 98)
139
Confirmação Metrológica
B.I.P.M
IMGC
Itália
NRLM
Japão
INMETRO
Brasil
NIST
EUA
PTB
Alemanha
Rede Brasileira de Calibração
Laboratório
do IPT
Laboratório
CST
Laboratório
de Furnas
Laboratório
USP
Observatório
Nacional
Temperatura
Padrão
Referência
Eletricidade
Pressão
Massa
Padrão
Transferência
Vazão
Padrão
Trabalho
Outros
Instrumento do
Usuário
Fig. 5.9. Cadeia ou pirâmide da rastreabilidade de padrões
140
A. Vocabulário de
Metrologia
As definições dos termos metrológicos gerais relevantes para este
trabalho são dadas a partir do International vocabulary of basic and
general terms in metrology (abreviado VIM), 2a ed. , publicado pela
ISO, elaborado por especialistas e em nome das sete organizações
que suportam seu desenvolvimento:
1. Bureau Internacional de Poids et Mesures (BIPM),
2. International Electrotechnical Comission (IEC),
3. International Federation of Clinical Chemistry (IFCC),
4. Organization International of Standardization (ISO),
5. International Union of Pure and Applied Chemistry (IUPAC),
6. International Union of Pure and Appplied Physics (IUPAP) e
7. International Organization of Legal Metrology (OIML).
O VIM deve ser a primeira fonte consultada para as definições
dos termos não incluídos aqui. Nas definições seguintes, o uso de
parênteses em torno de certas palavras de alguns termos significa
que as palavras podem ser omitidas se isto não causar confusão.
Os termos em negrito em alguns notas são termos metrológicos
adicionais definidos nestas notas, explicita ou implicitamente.
Os termos estão também consistentes com a Portaria 29, de 10
de março de 1995, do Instituo Nacional de Metrologia, Normalização
e Qualidade Industrial INMETRO.
141
Vocabulário de Metrologia
1. Grandezas e Unidades
CO2 = 0,000 35
à temperatura T = 273,15 K e
pressão p = 101 325 Pa.
1.1. Grandeza (mensurável)
1.3. Grandeza de base
Grandeza ou grandeza é o atributo de um
fenômeno, corpo ou substância que pode ser
distinguido qualitativamente e determinado
quantitativamente. O termo grandeza pode se
referir a uma grandeza no sentido geral (ver
exemplo 1) ou a uma grandeza particular [ver
exemplo 2).
Exemplos:
1. grandeza no sentido geral: comprimento,
tempo, massa, temperatura, resistência
elétrica, concentração e grandeza de
substância;
2. grandezas particulares:
comprimento de uma dada barra,
resistência elétrica de um dado fio de cobre
concentração de etanol em uma dada
amostra de vinho.
As grandezas que podem ser colocadas em
ordem de valor relativo a uma outra são
chamadas de grandezas de mesma espécie.
Grandezas da mesma espécie podem ser
agrupadas juntas em categorias de grandezas.
Por exemplo:
1. trabalho, calor, energia
2. espessura, circunferência, raio de
círculo e comprimento de onda.
Grandezas de mesma espécie são expressas com a
mesma unidade SI. Os nomes e símbolos para as
grandezas são dados pelo SI (Sistema Internacional de
Unidades)
No Sistema Internacional de Unidades (SI),
é a grandeza aceita como independente de
uma outra grandeza, por convenção e função.
Atualmente, há sete grandezas de base:
1. comprimento
2. massa
3. tempo
4. temperatura
5. corrente elétrica
6. quantidade de substância
7. intensidade luminosa
1.2. Grandeza medida (Mensurando)
O primeiro passo na medição é especificar
a grandeza a ser medida ou o mensurando. O
mensurando não pode ser especificado por um
valor mas somente por uma descrição de uma
grandeza. Porém, em princípio, um
mensurando não pode ser completamente
descrito sem uma grandeza infinita de
informação. Assim, para a extensão que lhe
deixa espaço para interpretação, a definição
incompleta do mensurando introduz na
incerteza do resultado de uma medição uma
componente de incerteza que pode ou não
pode ser significativa com relação à exatidão
requerida da medição.
A definição de um mensurando especifica
certas condições físicas.
Exemplo - A velocidade do som no ar seco de
composição (fração molar):
N2 = 0,7808
O2 = 0,1095
Ar = 0,009 35
1.4. Grandeza suplementar
No SI, é a grandeza aceita como
independente de uma outra grandeza, por
convenção e função. Por questão histórica, é
chamada de suplementar, quando pode ser
considerada também de base.
As duas grandezas suplementares são:
1. ângulo plano
2. ângulo sólido
1.5. Grandeza derivada
Grandeza definida, em um sistema de
grandezas, como função de grandezas de base
deste sistema. A grandeza derivada é
geralmente obtida pela multiplicação e divisão
de grandezas de base e outras derivadas.
Exemplos de grandezas derivadas:
1. área é uma grandeza derivada do
quadrado do comprimento.
2. volume é uma grandeza derivada do cubo
do comprimento
3. velocidade é uma grandeza derivada do
comprimento dividido por tempo
4. aceleração é uma grandeza derivada da
velocidade dividida por tempo ou do
comprimento dividido pelo tempo ao
quadrado
5. força é uma grandeza derivada da massa
multiplicada pelo comprimento e dividida
pelo quadrado do tempo.
Há uma infinidade de grandezas derivadas;
algumas com nomes e unidades próprias.
1.6. Grandeza, dimensão de uma
Expressão que representa uma grandeza
de um sistema de grandezas, como produto
das potências (positivas ou negativas) dos
fatores que representam as grandezas de base
deste sistema.
Exemplos:
142
Vocabulário de Metrologia
1. Dimensão de área: L2
2. Dimensão de volume: L3
3. Dimensão de velocidade: LT-1
4. Dimensão de aceleração: LT-2
5. Dimensão de força: MLT-2
Os fatores que representam as grandezas
de base são chamados de dimensões dessas
grandezas. A área possui dimensão de
comprimento ao quadrado.
Grandeza adimensional é aquela onde
todos os expoentes das dimensões das
grandezas de base são zero. Na prática,
grandeza adimensional não tem dimensão.
Exemplos:
1. densidade relativa (densidade de fluido
dividida pela densidade da água ou do
ar)
2. coeficiente de atrito
3. número de Mach
4. número de Reynolds
1.7. Unidade (de medição)
Grandeza específica definida e adotada por
convenção, com a qual outras grandezas de
mesma natureza são comparadas para
expressar suas magnitudes em relação àquela
grandeza.
Cada grandeza deve ter uma única unidade
de medição. Quando os números associados
do valor da grande forem muito grandes, devese usar múltiplos decimais ou quando forem
muito pequenos, usam-se submúltiplos. Por
exemplo, kilômetro é um múltiplo de metro e
milímetro é um submúltiplo de metro.
Unidades de medição tem nomes e
símbolos aceitos por convenção. Por exemplo,
a unidade de massa é o kilograma, símbolo kg.
Outro exemplo: a unidade de comprimento é o
metro, símbolo m.
Unidades de grandezas de mesma
dimensão podem ter os mesmos nomes e
símbolos, mesmo quando as grandezas não
são de mesma natureza. Por exemplo, energia
(elétrica, química, termodinâmica ou mecânica)
tem unidade de joule, simbolizada por J.
1.8. Unidade, símbolo de
Símbolo de uma unidade é um sinal
convencional que a designa. Símbolo não é
abreviatura. Símbolo de metro é m, símbolo de
kilograma é kg; símbolo de corrente elétrica é
A.
1.9. Unidade, sistema de
Sistema de unidades de medição é um
conjunto das unidades de base, suplementares
e derivadas, definido de acordo com regras
específicas, para um dado sistema de
grandezas. Já existiram vários sistemas de
unidades: CGS, MKSA, inglês e chinês. Hoje, o
sistema de unidades a ser usado por todo
técnico é o SI, (símbolo de Sistema
Internacional de Unidades).
O SI é um sistema de unidades coerente,
completo, decimal, universal.
1.10. Valor (de uma grandeza)
O valor é a magnitude ou a expressão
quantitativa de uma grandeza particular
geralmente expresso como uma unidade de
medição multiplicada por um número.
Exemplos
comprimento de uma barra: 5,34 m ou 534
cm;
massa de um corpo: 0,152 kg ou 152 g;
grandeza de substância de uma amostra
de água (H2O): 0,012 mol ou 12 mmol.
Notas:
1. O valor de uma grandeza pode ser positivo,
negativo ou zero.
2. O valor de uma grandeza pode ser
expresso em mais de um modo.
3. Os valores das grandezas de dimensão 1
são expressos como números isolados.
4. Uma grandeza que não pode ser expressa
como uma unidade de medição
multiplicada por um número pode ser
expressa por referência a uma escala
padrão convencional ou por um
procedimento de medição ou por ambos.
1.11. Valor verdadeiro (de uma
grandeza)
O valor verdadeiro é aquele consistente
com a definição de uma dada grandeza
particular.
1. Este é um valor que seria obtida por uma
medição perfeita
2. Valores verdadeiros são, por natureza,
indeterminados
3. O artigo indefinido um, em vez do artigo
definido o, é usado em conjunto com valor
verdadeiro, porque pode haver vários
valores verdadeiros.
143
Vocabulário de Metrologia
1.12. Valor verdadeiro convencional
(de uma grandeza)
O valor verdadeiro convencional é aquele
atribuído a uma grandeza particular e aceito,
algumas vezes por convenção, como tendo
uma incerteza apropriada para um dado
objetivo.
Exemplos
a) em um dado local, o valor atribuído à
grandeza realizada por um padrão de
referência pode ser tomada como um valor
verdadeiro convencional;
b) o valor recomendado pelo CODATA (1986)
para a constante de Avogrado:
6,022 136 7 x 1023 mol-1.
1. O valor verdadeiro convencional é
geralmente chamado de valor atribuído,
melhor estimativa do valor, valor
convencional ou valor de referência.
2. Freqüentemente, um número de resultados
de medições de uma grandeza é usado
para estabelecer um valor verdadeiro
convencional.
1.13. Valor verdadeiro, erro e
incerteza
O termo valor verdadeiro tem
tradicionalmente sido usado em publicações
sobre incerteza mas não neste trabalho pelas
seguintes razões.
O resultado de uma medição da grandeza
realizada é corrigido para a diferença entre
esta grandeza e o mensurando de modo a
prever o que o resultado da medição teria sido
se a grandeza realizada, de fato, satisfizesse
totalmente a definição do mensurando. O
resultado da medição da grandeza realizada é
também corrigido para todos os outros efeitos
sistemáticos significativos reconhecidos.
Embora o resultado final corrigido final seja
geralmente visto como a melhor estimativa do
valor verdadeiro do mensurando, na realidade
o resultado é simplesmente a melhor estimativa
do valor da grandeza que se quer medir.
Como exemplo, suponha que o mensurando
é a espessura de uma dada folha de material
em uma especificada temperatura. A peça é
trazida para a temperatura próxima da
temperatura especificada e sua espessura, em
um determinado local, é medida com um
micrômetro. A espessura do material neste
local e temperatura, sob a pressão aplicada
pelo micrômetro, é a grandeza realizada.
A temperatura do material na hora da
medição e a pressão aplicada são
determinadas. O resultado não corrigido da
medição da grandeza realizada é então
corrigido levando em conta a curva de
calibração do micrômetro, o afastamento da
temperatura do equipamento da temperatura
especificada e a leve compressão da peça sob
a pressão aplicada.
O resultado corrigido pode ser chamado a
melhor estimativa do valor verdadeiro,
verdadeiro no sentido que é o valor da
grandeza que se acredita satisfazer totalmente
a definição do mensurando mas tem o
micrômetro sido aplicada a diferença parte da
folha de material, a grandeza realizada teria
sido diferente com um diferente valor
verdadeiro. Porém, este valor verdadeiro seria
consistente com a definição do mensurando
porque o último não especificou que a
espessura era para ser determinada neste
determinado ponto da folha. Assim, neste caso,
por causa de uma definição incompleta do
mensurando, o valor verdadeiro tem uma
incerteza que pode ser avaliada das medidas
feitas em diferentes pontos da folha. Em algum
nível, cada mensurando tem uma incerteza
intrínseca que pode, em princípio, ser estimada
de algum modo. Esta é a mínima incerteza com
que um mensurando pode ser determinado e
cada medição tem tiver esta incerteza pode ser
vista como a melhor medição possível do
mensurando. Para obter um valor da grandeza
em questão tendo uma menor incerteza requer
que o mensurando seja definido com mais
detalhes.
1. No exemplo, a especificação do
mensurando deixa muitos outras
informações em dúvida que poderiam afetar
a espessura: pressão barométrica,
umidade, atitude da folha no campo
gravitacional, o modo como ela é suportada.
2. Embora um mensurando seja definido em
detalhe suficiente, de modo que qualquer
incerteza resultante de sua definição
incompleta seja desprezível em comparação
com a exatidão requerida da medição, deve
ser reconhecido que isto pode nem sempre
ser praticável. A definição pode, por
exemplo, ser incompleta porque ela não
especifica parâmetros que deveriam ser
assumidos, injustificavelmente, tendo efeito
desprezível; ou ela pode implicar condições
que nunca são totalmente satisfeitas e cuja
realização imperfeita é difícil de considerar.
Por exemplo, a velocidade do som implica
ondas planas infinitas com pequena
amplitude. Para o objetivo que a medição
não satisfaz estas condições, a difração e
os efeitos não lineares devem ser
considerados.
3. Especificação inadequada do mensurando
pode levar a discrepâncias dos resultados
das medições da ostensivamente mesma
grandeza feitas em diferentes laboratórios.
144
Vocabulário de Metrologia
O termo valor verdadeiro de um
mensurando ou de uma grandeza (muitas
vezes truncado para valor verdadeiro) é evitado
neste trabalho porque a palavra verdadeiro é
vista como redundante. Mensurando significa
grandeza particular sujeita à medição, assim
valor de um mensurando significa valor de uma
grandeza particular sujeita à medição. Desde
que grandeza particular é geralmente
entendida para significar uma grandeza
definida ou especificada, o adjetivo verdadeiro
em valor verdadeiro de um mensurando (ou em
valor verdadeiro de uma grandeza) é
desnecessário - o valor verdadeiro do
mensurando (ou grandeza) é simplesmente o
valor do mensurando (ou grandeza). Além
disso, como indicado na discussão acima, um
único valor verdadeiro é apenas um conceito
idealizado.
1.14. Valor numérico (de uma
grandeza)
O valor numérico é o número que multiplica
a unidade na expressão do valor de uma
grandeza. Exemplo,
No valor do comprimento de uma barra:
5,34 m; 5,34 é o valor numérico.
No valor da massa de um corpo: 0,152 kg;
0,152 é o valor numérico.
2. Medição
2.1. Metrologia
Metrologia é a ciência que trata das
medição, tratando de seus aspectos teóricos e
práticos, incluindo a incerteza, em todos os
campos da ciência ou da tecnologia.
2.2. Medição
Medição é um conjunto de operações com o
objetivo de determinar um valor de uma
grandeza.
As operações podem ser feitas
manualmente ou automaticamente.
2.3. Princípio de medição
Princípio é a base científica de uma
medição.
Exemplos
1. efeito termelétrico aplicado à medição de
temperatura;
2. efeito Josephson aplicado à medição de
diferença de potencial elétrico;
3. efeito Doppler aplicado à medição de
velocidade ou de vazão;
4. efeito Raman aplicado à medição do
número de onda de vibrações moleculares.
2.4. Método de medição
Método é a seqüência lógica de operações,
descrita genericamente, usada para fazer
medições
Métodos de medição podem ser
qualificados em vários modos, tais como:
1. direto
2. substituição
3. comparação ou balanço de nulo
2.5. Procedimento de medição
Procedimento é um conjunto de operações,
descrito especificamente e usado para fazer
medições particulares de acordo com um dado
método
Um procedimento de medição é usualmente
registrado no documento que é geralmente
chamado de procedimento de medição (ou um
método de medição) e é usualmente em
detalhe suficiente para possibilitar um operador
fazer uma medição sem informação adicional.
2.6. Mensurando (mensurand)
Mensurando é o objeto da medição ou a
grandeza particular sujeita à medição. Por
exemplo - pressão de vapor de uma dada
amostra de água a 20 oC.
A especificação de um mensurando pode requerer
declaração acerca de grandezas como tempo,
temperatura e pressão.
2.7. Grandeza de influência
É a grandeza que não é o mensurando mas
que afeta o resultado da medição. Exemplos
1. temperatura de um micrômetro usado para
medir comprimento
2. freqüência na medição da amplitude de
uma diferença de potencial elétrica
alternada.
3. concentração de bilirubin na medição de
concentração de hemoglobina em uma
amostra de plasma sangüíneo do homem.
4. A grandeza de influência inclui valores
associados com padrões de medição,
materiais de referência e dados de
referência dos quais o resultado de uma
medição pode depender, bem como os
fenômenos tais como flutuações rápidas do
instrumento de medição e grandezas tais
como temperatura ambiente, pressão
barométrica e umidade.
2.8. Grandeza de modificação
145
Vocabulário de Metrologia
É a grandeza que não é o mensurando mas
que afeta o resultado da medição, alterando o
seu valor justo na medição, diretamente no
elemento sensor. Exemplos
1. temperatura e pressão na medição da
vazão volumétrica de gás. Como o
volume depende da pressão e da
temperatura do gás, estas variáveis
modificam o valor medido da vazão
volumétrica do gás.
2. densidade na medição de nível de
líquido através da pressão diferencial.
Como a pressão diferencial exercida
pela coluna líquida depende da
densidade do líquido, aceleração da
gravidade e da altura do líquido, o nível
é modificado pela densidade.
A modificação pode ser eliminada ou
diminuída através da compensação da
medição, quando se fazem as medições que
afetam a variável medida e o cálculo
matemático para eliminar a modificação. Por
exemplo, na medição de nível de líquido com
densidade variável através da pressão
diferencial, medem-se a pressão diferencial e a
densidade do líquido e aplicam-se os dois
sinais a um divisor de sinais. A saída do divisor
é proporcional apenas ao nível.
2.9. Sinal de medição (measurement
signal)
Sinal é a grandeza que representa a
quantidade medida ao qual está
funcionalmente relacionada. O sinal contem a
informação. Exemplos de sinais:
1. deslocamento na saída de um sensor
mecânico de pressão
2. sinal padrão de 4 a 20 mA na saída de
um transmissor eletrônico de
temperatura
3. sinal padrão de 20 a 100 kPa na saída
de um transmissor pneumático de
nível.
4. tensão ou força eletromotriz de um
termopar usado para medir a
temperatura de um processo.
O sinal de entrada de um dispositivo pode
ser considerado estímulo; o sinal de saída
pode ser considerado resposta.
O sinal pode sofrer várias modificações ao
longo do sistema de medição, porém deve
preservar inalterada a informação da medição.
Por exemplo, ele pode ser filtrado, amplificado,
convertido em outra forma de energia,
compensado, blindado.
2.10. Ruído (noise)
Grandeza da mesma natureza que o sinal
que afeta a medição, provocando erro de
influência. O ruído pode ser eliminado ou
diminuído através de várias técnicas, como
1. posição relativa entre instrumento de
medição e fonte de ruído
2. blindagem e aterramento quando ruído
for de natureza elétrica
3. Resultado da Medição
3.1. Resultado de uma medição
É o valor atribuído a um mensurando, obtido
por medição.
1. Quando um resultado é dado, deve ficar
claro se ele se refere a
- uma indicação
- um resultado não corrigido
- um resultado corrigido
- média de vários valores
2. Uma apresentação completa do
resultado de uma medição inclui
informação acerca da incerteza da
medição.
3.2. Resultado não corrigido
Resultado de uma medição antes da
correção devida aos erro sistemáticos.
3.3. Resultado corrigido
Resultado de uma medição depois da
correção devida aos erros sistemáticos.
3.4. Erro (da medição)
Erro é o resultado de uma medição menos
um valor verdadeiro do mensurando.
1. Desde que um valor verdadeiro não
pode ser determinado, na prática é
usado um valor verdadeiro
convencional.
2. Quando for necessário distinguir erro de
erro relativo, o erro é geralmente
chamado de erro absoluto da medição,
que não deve ser confundido com o
valor absoluto do erro, que é o módulo
do erro.
3. Se o resultado de uma medição depende
dos valores de outras grandezas diferentes do
mensurando, os erros dos valores medidos
destas grandezas contribuem para o erro do
resultado da medição.
146
Vocabulário de Metrologia
3.5. Erro relativo
Erro relativo é erro da medição dividido por
um valor verdadeiro do mensurando
Nota - Desde que um valor verdadeiro não
pode ser determinado, na prática, é usado
um erro verdadeiro convencional.
3.6. Erro aleatório
Erro aleatório um resultado de uma medição
menos a média que resultaria de um número
infinito de medições do mesmo mensurando
feitas sob as condições de repetitividade.
1. Erro aleatório é igual ao erro menos o
erro sistemático.
2. Como pode ser feito somente um
número finito de medições, é possível
determinar somente uma estimativa do
erro aleatório.
3.7. Erro sistemático
Erro sistemático é média que resultaria de
um número infinito de medições do mesmo
mensurando feitas sob as condições de
repetitividade menos um valor verdadeiro do
mensurando.
1. Erro sistemático é igual ao erro menos o
erro aleatório.
2. Como o valor verdadeiro, o erro
sistemático e suas causas não podem
ser completamente conhecidos.
3. Para um instrumento de medição, o erro
sistemático é chamado de polarização
(bias)
4. O erro do resultado de uma medição
pode geralmente ser considerado como
resultante de um número de efeitos aleatórios e
sistemáticos que contribuem com componentes
individuais para o erro do resultado.
3.8. Correção (do erro)
Correção do erro é o valor somado
algebricamente ao resultado não corrigido de
uma medição para compensar o erro
sistemático
1. A correção é igual ao negativo do erro
sistemático estimado.
2. Como o erro sistemático não pode ser
perfeitamente conhecido, a
compensação não pode ser completa.
3.9. Fator de correção
Fator numérico pelo qual o resultado não
corrigido de uma medição é multiplicado para
compensar o erro sistemático
3.10. Incerteza
A palavra incerteza significa dúvida e assim
em seu sentido mais amplo incerteza da
medição significa dúvida acerca da validade do
resultado de uma medição.
3.11. Incerteza (da medição)
A incerteza da medição é um parâmetro
associado com o resultado de uma medição
que caracteriza a dispersão dos valores que
podem razoavelmente ser atribuídos ao
mensurando.
1. O parâmetro pode ser, por exemplo, um
desvio padrão (ou um dado múltiplo
dele) ou a meia largura de um intervalo
com determinado nível de confiança.
2. A incerteza de uma medição
compreende, em geral, muitos
componentes. Alguns destes
componentes podem ser avaliados da
distribuição estatística dos resultados de
séries de medições e podem ser
caracterizados por desvios padrão
experimentais. Os outros componentes,
que também podem ser caracterizados
por desvios padrão, são avaliados de
distribuições de probabilidade
assumidas baseadas na experiência ou
em outras informações.
3. O resultado da medição é a melhor
estimativa do valor do mensurando e
todos os componentes da incerteza,
incluindo os que aparecem de efeitos
sistemáticos, tais como os componentes
associados com correções e padrões de
referência, contribuem para a dispersão.
A definição anterior de incerteza de medição
é um operacional que focaliza o resultado da
medição e sua incerteza avaliada. Outros
conceitos de incerteza da medição podem ser:
1. uma medida do erro possível no valor
estimado do mensurando como o
fornecido pelo resultado de uma
medição;
2. uma estimativa caracterizando a faixa
de valores dentro da qual cai o valor
verdadeiro de um mensurando.
Embora estes dois conceitos tradicionais
sejam válidos como ideais, eles envolvem
grandezas desconhecidas como o erro do
resultado de uma medição e o valor verdadeiro
do mensurando (em contraste com o seu valor
estimado), respectivamente.
Uma vez que os valores exatos das
contribuições para o erro de um resultado de
uma medição são desconhecidos e
desconhecíveis, as incertezas associadas com
os efeitos aleatórios e sistemáticos que
provocam o erro podem ser avaliados. Mas
mesmo se as incertezas avaliadas são
147
Vocabulário de Metrologia
pequenas, ainda não há garantia que o erro no
resultado da medição é pequeno; para a
determinação de uma correção ou na avaliação
do conhecimento incompleto, um efeito
sistemático pode sido omitido por que ele não é
reconhecido. Assim, a incerteza de um
resultado de uma medição não é
necessariamente uma indicação da
probabilidade que o resultado da medição está
próximo do valor do mensurando; ele é
simplesmente uma estimativa da probabilidade
de proximidade ao melhor valor que é
consistente com o conhecimento atualmente
disponível.
A incerteza da medição é assim uma
expressão do fato que, para um dado
mensurando e um dado resultado da medição
dele, não há um valor mas um número infinito
de valores dispersos em torno do resultado que
são consistente com todas as observações e
dados e seu conhecimento do mundo físico e
que, com graus variáveis de credibilidade,
podem ser atribuídos ao mensurando.
Felizmente, em muitas medições práticas,
muito da discussão deste Anexo não se aplica.
Exemplos são quando o mensurando é
adequadamente bem definido, quando padrões
ou instrumentos são calibrados usando
padrões de referência bem conhecidos que são
rastreáveis a padrões nacionais; e quando as
incertezas das correções da calibração
aparecem de efeitos aleatórios nas indicações
de instrumentos ou de um número limitado de
observações. Todavia, o conhecimento
incompleto das grandezas de influência e seus
efeitos podem geralmente contribuir
significativamente para a incerteza do resultado
de uma medição.
3.12. Incerteza padrão
Incerteza do resultado de uma medição
expressa como um desvio padrão.
3.13. Incerteza padrão combinada
Incerteza padrão do resultado de uma
medição quando este resultado é obtido dos
valores de várias outras grandezas, iguais à
raiz quadrada positiva de uma soma de termos,
os termos sendo as variâncias ou covariâncias
destas outras grandezas com pesos de acordo
com o modo que o resultado da medição varia
com alterações destas grandezas.
3.14. Incerteza expandida
Grandeza que define um intervalo dentro do
qual o resultado de uma medição que é
esperado incluir uma grande fração da
distribuição de valores que podem
razoavelmente ser atribuídos ao mensurando.
1. A fração pode ser vista como a
probabilidade de cobertura ou nível de
confiança do intervalo.
2. Associar um nível específico de
confiança com o intervalo definido pela
incerteza expandida requer hipóteses
explícita ou implícita com relação a
distribuição de probabilidade
caracterizada pelo resultado da medição
e sua incerteza padrão combinada. O
nível de confiança que pode ser
atribuído a este intervalo pode ser
conhecido somente na extensão em que
tais hipóteses possam ser justificadas.
3. A incerteza expandida é também
chamada de incerteza total.
3.15. Avaliação Tipo A (de incerteza)
Método de avaliação da incerteza por
análise estatística de séries de observações,
geralmente aplicado às incertezas aleatórias,
cuja distribuição é normal ou gaussiana.
3.16. Avaliação Tipo B (de incerteza)
Método de avaliação da incerteza por meios
diferentes de análise estatística de séries de
observações, geralmente aplicado às
incertezas sistemáticas, cuja distribuição não é
normal e geralmente é retangular.
3.17. Fator de cobertura
Um número que, quando multiplicado pela
incerteza padrão combinada, produz um
intervalo (incerteza expandida) em torno do
resultado da medição que pode ser esperado
englobar uma grande fração especificada (e.g.,
95%) da distribuição dos valores que podem
razoavelmente ser atribuídos à grandeza
medida.
Fator numérico usado como um
multiplicador da incerteza padrão combinada
de modo a obter uma incerteza expandida. Um
fator de cobertura, k, é tipicamente na faixa de
2 a 3.
148
Vocabulário de Metrologia
4. Instrumento de Medição
Há muitos termos empregados para
descrever os artefatos utilizados nas medições.
Eles não são mutuamente excludentes. Alguns
são precisos outros são ambiguos, alguns são
genéricos outros são específicos, alguns são
usados por técnicos, outros por leigos. Os
principais nomes são:
1. elemento
2. componente
3. parte
4. transdutor de medição
5. dispositivo de medição
6. medidor
7. instrumento de medição
8. aparelho
9. equipamento
10. malha de medição
11. instalação de medição
12. sistema de medição
Em Instrumentação, uma malha de medição
é constituída dos seguintes componentes, que
podem estar fisicamente separados ou
alojados em um único invólucro:
1. sensor
2. condicionador
3. display
4.1. Instrumento de medição
(measuring instrument)
Dispositivo utilizado para realizar uma
medição, isolado ou em conjunto com outros
dispositivos complementares.
4.2. Medida materializada (material
measure)
Dispositivo destinado a reproduzir ou
fornecer, de maneira constante durante seu
uso, um ou mais valores conhecidos e
confiáveis de uma dada grandeza. É também
chamado material de referência certificado.
Exemplos:
1. Massa padrão
2. Bloco padrão de comprimento
3. Medida de volume (de um ou vários
valores, com ou sem escala graduada)
4. Resistor elétrico padrão
5. Gerador de sinal padrão
6. Solução padrão de pH
4.3. Transdutor de Medição
(measuring transducer)
Genericamente, transdutor é qualquer
dispositivo que modifica a forma de energia, da
entrada para a saída. As formas de energia na
entrada e saída são diferentes, porém há uma
relação matemática definida entre ambas.
Exemplos:
1. termopar
2. transformador de corrente
3. célula extensiométrica para medir
pressão eletricamente
4. eletrodo de pH
4.4. Transmissor (transmitter)
Instrumento que sente uma variável de
processa e gera na saída um sinal padrão
proporcional ao valor da variável medida. Pode
ser de natureza eletrônica (sinal de 4 a 20 mA
cc) ou pneumática (sinal de 20 a 100 kPa).
É utilizado para
1. usar o sinal remotamente
2. isolar processo do display
3. padronizar sinais
4.5. Cadeia de medição (measuring
chain)
Seqüência de elementos de um
instrumentos ou sistema de medição formando
o trajeto do sinal de medição, desde o estimulo
(entrada) até a resposta (saída). O
instrumentista diz: malha de medição
(measuring loop).
Uma cadeia de medição de temperatura
pode ser formada por: termopar, fios de
extensão, junta de referência e indicador de
temperatura.
4.6. Sistema de medição (measuring
system)
Conjunto completo de instrumentos de
medição e outros equipamentos associados
para executar uma determinada medição. Em
certos casos, eqüivale à cadeia ou malha de
medição.
Um sistema de medição pode incluir
medidas materializadas e reagentes químicos.
Sistema de medição instalado de modo
permanente é chamado de instalação de
medição.
4.7. Indicador (indicator)
Instrumento de medição que sente uma
variável e apresenta o resultado instantâneo
em uma escala com ponteiro ou através de
dígitos.
Exemplos:
1. voltímetro
2. frequencímetro
3. termômetro
4. manômetro
149
Vocabulário de Metrologia
A indicação pode ser analógica, (contínua
ou discreta), através de escala e ponteiro ou
digital, através de dígitos.
Um indicador pode apresentar os valores de
várias grandezas independentes, de modo
simultâneo ou um valor de cada vez, de modo
selecionável manual ou automaticamente.
O indicador pode também estar associado
às funções de
1. transmissão
2. registro
3. controle
O leigo também chama o indicador de
relógio, mostrador ou medidor, que são nomes
ambíguos e devem ser evitados.
4.8. Registrador (recorder)
Instrumento de medição que sente uma
variável e imprime o resultado historico ou de
tendência em um gráfico através de penas com
tinta.
Exemplos:
1. registrador de temperatura
2. registrador de vazão, pressão e
temperatura
O registro pode ser contínuo, com uma a
quatro penas independentes ou pode ser
discreto, quando cada ponto de registro é feito
um de cada vez, em uma seqüência fixa
definida (registrador multiponto).
Um registrador pode apresentar os valores
de várias grandezas independentes, de modo
simultâneo ou um valor de cada vez, de modo
selecionável manual ou automaticamente.
O registrador pode também estar associado
às funções de
1. indicação
2. controle
4.9. Totalizador (totalizer)
Instrumento de medição que determina o
valor de uma grandeza por meio do acúmulo
dos valores parciais, durante determinado
intervalo de tempo. É também chamado de
integrador. Geralmente a integração é feita em
relação ao tempo. O totalizador multiplica a
variável totalizada por um intervalo de tempo,
de modo que a integração da velocidade é
distância, da potência é energia, da vazão
volumétrica é volume.
Exemplos:
1. totalizador de potência elétrica, que
apresenta o valor totalizado no tempo
em energia.
2. totalizador de vazão, que apresenta o
valor totalizado no tempo em volume ou
massa.
3. totalizador de velocidade, que
apresenta o valor totalizado no tempo
em distância.
O totalizador pode receber em sua entrada
sinal analógico ou digital. Sua saída é sempre
um contador. Quando um totalizador pára de
totalizar, a sua saída fica congelada no último
valor acumulado.
O display do contador é geralmente digital,
porém é possível ter display analógico.
4.10. Instrumento analógico (analog
instrument) e digital (digital instrument)
O fato de um instrumento ser analógico ou
digital depende de quatro parâmetros, cada um
podendo analógico ou digital:
1. sinal
2. função
3. tecnologia
4. display
Na prática, quando se fala de um
instrumento analógico ou digital, está-se
referindo implicitamente ao display e não
necessariamente aos outros três parâmetros.
Assim, instrumento analógico é aquele que
apresenta a indicação através do conjunto
escala e ponteiro e instrumento digital é aquele
que apresenta a indicação através de dígitos.
4.11. Mostrador (display, dial)
Mostrador é a parte do indicador que
apresenta a indicação. Quando analógico, é o
conjunto escala e ponteiro e quando digital, o
conjunto de dígitos.
O mostrador pode ter diferentes
1. formatos: circular, reto horizontal, reto
vertical,
2. tamanhos
3. cores
4. princípios de operação ou
acionamento: eletrônico, pneumático
ou mecânico
4.12. Índice (index)
Parte fixa ou móvel de um dispositivo mostrador, cuja
posição em relação às marcas da escala define o valor
indicado.
O índice pode ser
1. ponteiro
2. ponto luminoso
3. superfície de um líquido
4. pena de registrador
5. lâmpadas ou LEDs (diodo emissor de
luz) que se acendem em um conjunto
150
Vocabulário de Metrologia
4.13. Escala (scale)
Régua graduada do indicador, em ordem
crescente ou decrescente, contínua ou
discreta, sobre a qual um ponteiro se posiciona
para fornecer o valor indicado da medição. No
conjunto escala e ponteiro, um dos dois é fixo e
o outro, móvel. Geralmente, a escala é fixa e o
ponteiro é móvel.
A graduação da escala pode ser uniforme
ou linear ou pode ser não linear específica.
Quanto maior a escala e o número de
marcas (divisões), maior é a precisão e
resolução da indicação e maior é a quantidade
de algarismos significativos no resultado da
indicação.
Escala de valor de referência ou escala de
referência convencional é usada para comparar
grandezas específicas, como a escala de
dureza Mohs, escala de pH, escala de índice
de octanas para gasolina.
4.14. Escala com zero suprimido
(supressed zero scale)
Escala cuja faixa de indicação não inclui o
valor zero. Por exemplo, escala do termômetro
clinico, que vai de 35 a 42 oC.
4.15. Escala com zero elevado
(elevated zero scale)
Escala cuja faixa de indicação onde o valor
0% é negativo e por isso o zero está elevado
em relação ao 0%. Por exemplo, escala de
termômetro que vai de -20 a 50 oC. O valor 0
o
C está elevado em relação ao 0% (-20 oC).
4.16. Escala expandida (expanded
scale)
Escala na qual parte da faixa de indicação
ocupa um comprimento da escala que é
desproporcionalmente maior do que outras
partes.
4.17. Sensor (sensor)
Sensor é o elemento de um instrumento de
medição ou de uma malha de medição que é
diretamente afetado pela quantidade medida. O
sensor detecta a variável, gerando um sinal
proporcional a ela. Nomes alternativos de
sensor: detector, elemento primário, elemento
transdutor, captador, probe.
Em função de seu sinal de saída, o sensor
pode ser mecânico (saída é um deslocamento
ou movimento) ou eletrônico (saída é uma
tensão ou variação de parâmetro eletrônico,
como resistência, indutância, capacitância).
O sensor depende umbilicalmente da
variável medida, ou seja, o sensor é
determinado pela variável medida. Exemplos:
1. termopar, que gera uma tensão em
função da diferença da temperatura
medida e a de referência
2. detector de temperatura a resistência
(RTD) que varia a resistência elétrica
em função da temperatura medida
3. placa de orifício que gera uma pressão
diferencial proporcional ao quadrado da
vazão volumétrica medida
4. bourdon C que gera um pequeno
deslocamento em função da pressão
aplicada
5. bóia de um sistema de medição de
nível
6. tubo magnético de vazão que gera uma
fem proporcional à vazão volumétrica
de um líquido eletricamente condutor
que passa em seu interior
Às vezes, o sensor indica apenas a
presença ou ausência de uma grandeza, sem
fornecer necessariamente o seu valor
numérico. Por exemplo, detector de vazamento
de gases, papel tornasol para indicar apenas
se uma solução é ácida ou básica.
4.18. Faixa de indicação (range of
indication)
Conjunto de valores compreendidos entre 0
e 100% das indicações. O 0% é o limite inferior
e o 100% é o limite superior da indicação.
A faixa de indicação pode ser expressa em
unidade de engenharia ou em percentagem.
Para o indicador analógico, a faixa de
indicação é igual à faixa da escala.
O início da escala (0%) e o fim da escala
(100%) podem ser iguais a zero, negativos ou
positivos.
4.19. Amplitude de faixa (span of
indication)
Diferença algébrica, em valor absoluto, do
limite máximo (100%) e mínimo (0%) da faixa
de indicação. Exemplos:
1. Largura da faixa de 0 a 100 oC é 100 oC
2. Largura da faixa de 20 a 100 oC é 80 oC
3. Largura da faixa de -20 a 100 oC é 120
o
C
4. Largura da faixa de -40 a -20oC é 20 oC
151
Vocabulário de Metrologia
4.20. Escala linear (linear scale)
Escala linear possui graduações ou
marcações uniformemente separadas. O
instrumento possui escala linear quando há
uma relação constante entre as saídas e
entradas de todos os componentes da malha
de medição, incluindo o sensor.
Quando aparece uma não linearidade na
malha, ela pode ser corrigida imediatamente
por alguma operação não linear inversa,
através de circuito, instrumento ou programa.
Quando o sinal de medição que chega à escala
é linear, usa-se uma escala linear; quando for
não linear, usa-se uma escala não linear
específica. As escalas não lineares mais
utilizadas em instrumentação são a logarítmica
(escala do ohmímetro analógico) e a raiz
quadrática (associada à medição de vazão com
placa de orifício, geralmente chamada de
quadrática – o que é incorreto!).
5. Características do
Instrumento de Medição
Alguns dos termos utilizados para descrever
as características de um instrumento de
medição podem ser igualmente aplicáveis a
sensores, condicionadores de sinal ou sistema
de medição e também a medida materializada
ou material de referência certificada.
5.1. Faixa nominal (nominal range)
Faixa de indicação que se pode obter em
uma posição específica dos controles de um
instrumento de medição.
A faixa nominal coincide geralmente com a
faixa de medição ou de calibração do
instrumento.
5.2. Valor nominal (nominal value)
Valor teórico, arredondando ou aproximado
de uma característica do instrumento de
medição que auxilia na sua utilização.
Exemplos:
1. Resistor padrão de 100 Ω.
2. Recipiente volumétrico de 1 L
3. Concentração da quantidade de
matéria de uma solução de ácido
clorídrico, HCl, de 0,1 mol/L
4. 24 oC como temperatura de referência
para calibração de um instrumento.
5.3. Condições de Utilização (rated
operating conditions)
Condições de uso para as quais as
características metrológicas especificadas de
um instrumento de medição mantém-se dentro
dos limites especificados.
As condições de utilização geralmente
especificam faixas ou valores aceitáveis para a
quantidade medida e para as grandezas de
influência, como valor e freqüência da
alimentação, ruídos externos, posição, vibração
mecânica, temperatura e pressão ambientes.
5.4. Condições Limites (limiting
conditions)
Condições extremas nas quais um
instrumento de medição resiste sem danos e
degradação das características metrológicas
especificadas, as quais são mantidas nas
condições de funcionamento em utilizações
subsequentes.
As condições limites de armazenagem,
transporte e operação podem ser diferentes.
As condições limites podem incluir valores
limites para a quantidade medida e para as
grandezas de influência.
5.5. Condições de Referência
(reference conditions)
Condições de uso prescritas para ensaio de
desempenho de um instrumento de medição ou
para intercomparação de resultados de
medições.
As condições de referência geralmente
incluem os valores de referência ou as faixas
de referência para as grandezas de influência
que afetam o instrumento de medição.
5.6. Constante de um instrumento
(instrument constant)
Fator pelo qual a indicação direta de um
instrumento de medição deve ser multiplicada
para se obter o valor indicado do mensurando
ou de uma grandeza utilizada no cálculo do
valor do mensurando.
Instrumentos de medição com diversas
faixas com uma única escala, têm várias
constantes que correspondem, por exemplo, a
diferentes posições de um mecanismo seletor.
Quando a constante é igual a 1, ela
geralmente não é indicada no instrumento.
Quando não se diz qual é a constante,
entende-se que ela é igual a 1.
Medidores de vazão possuem uma
constante, que relaciona o seu sinal de saída
152
Vocabulário de Metrologia
com o valor da vazão medida. Este fator K ou
constante deve ser periodicamente calibrada.
5.7. Característica de resposta
(response characteristic)
Relação entre a saída (resposta) e a
entrada (estímulo) de um instrumento, sob
condições definidas. Exemplos: a força
eletromotriz de saída do termopar como função
da entrada de temperatura.
A relação pode ser expressa por uma
equação matemática, tabela numérica ou
gráfico.
Quando a saída varia em função do tempo,
a forma característica de resposta é a função
de transferência da resposta dividida pela da
entrada.
5.8. Sensibilidade (sensitibility)
Variação da saída (resposta) de um
instrumento de medição dividida pela
correspondente variação da entrada (estímulo).
A sensibilidade nem sempre é linear e pode
depender do valor da entrada.
5.9. Limiar de mobilidade
(discrimination, threshold)
Maior variação da entrada (estímulo) que
não produz variação detectável na saída
(resposta) de um instrumento de medição,
sendo a variável no sinal de entrada lenta e
uniforme.
O limiar de mobilidade pode depender, por
exemplo, do ruído, atrito e também do valor da
entrada (estímulo).
5.10. Resolução (resolution)
Menor diferença entre indicações de um
dispositivo mostrador que pode ser percebida
significativamente.
Para mostrador digital, é a variação na
indicação quando o dígito menos significativo
(o da extrema direita) varia de um dígito.
5.11. Zona morta (dead zone)
Intervalo máximo no qual uma entrada
(estímulo) pode variar em ambos os sentidos,
sem produzir variação na saída (resposta) de
um instrumento de medição .
A zona morta pode depender da taxa de
variação.
A zona morta, algumas vezes, pode ser
deliberadamente ampliada, de modo a prevenir
variações na saída (resposta) para pequenas
variações na entrada (estímulo).
5.12. Estabilidade (stability)
Aptidão de um instrumento de medição em
conservar constantes suas características
metrológicas ao longo do tempo.
A estabilidade pode ser estabelecida em
relação a outra grandeza que não o tempo,
mas isto deve ser explicitamente declarado.
A estabilidade pode ser quantificada de
vários modos, por exemplo:
1. pelo tempo no qual a característica
metrológica varia de um valor
determinado ou
2. em termos da variação de uma
característica em um determinado
período de tempo.
5.13. Discriminação (transparency)
Aptidão de um instrumento de medição em
não alterar o valor da quantidade medida.
5.14. Deriva (drift)
Variação lenta de uma característica
metrológica de um instrumento de medição.
Geralmente a deriva é devida à variação da
temperatura ambiente ou do tempo ou de
ambos.
5.15. Tempo de resposta
Intervalo de tempo entre o instante em que
uma entrada é submetido a uma variação
brusca e o instante em que a resposta atinge e
permanece dentro de limites especificados em
torno do seu valor final estável.
5.16. Exatidão da medição
Exatidão é o grau de concordância entre o
resultado de uma medição e um valor
verdadeiro do mensurando
1. Exatidão é um conceito qualitativo
2. O termo precisão não deve ser usado
para exatidão.
3. A exatidão está relacionada com os
erros sistemáticos do instrumento.
4. A exatidão é obtida através da
calibração periódica do instrumento.
5.17. Classe de exatidão
Classe de instrumentos de medição que
satisfazem a certas exigências metrológicas
destinadas a conservar os erros dentro de
limites especificados. A classe de exatidão é
geralmente indicada por um número ou
símbolo adotado por convenção e denominado
índice de classe.
153
Vocabulário de Metrologia
5. 18. Repetitividade (de resultados
de medições)
Repetitividade é o grau de concordância
entre os resultados de medições sucessivas do
mesmo mensurando feitas sob as mesmas
condições de medição A repetitividade
representa o grau de dispersão de várias
medidas repetidas feitas de um mesmo valor
do mensurando.
1. Estas condições são chamadas de
condições de repetitividade
2. As condições de repetitividade incluem
o mesmo procedimento de medição
o mesmo observador
o mesmo instrumento de medição,
usado sob as mesmas condições
o mesmo local
repetições em um curto período de
tempo
3. A repetitividade pode ser expressa
quantitativamente em termos da
dispersão característica dos resultados.
4. A repetitividade é a precisão do
instrumento.
5. A precisão está relacionada com os
erros aleatórios do instrumento.
6. A precisão é mantida através da
manutenção programada do
instrumento.
5.19. Reprodutibilidade
Reprodutibilidade é a proximidade de
consenso entre os resultados de medições
sucessivas do mesmo mensurando feitas sob
condições diferentes de medição
1. Uma expressão válida da
reprodutibilidade requer a especificação
das condições variadas.
2. As condições variadas podem incluir:
- princípio de medição
- método de medição
- observador
- instrumento de medição
- padrão de referencia
- local
- condições de uso
3. A reprodutibilidade pode ser expressa
quantitativamente em termos da
dispersão característica dos resultados.
4. Os resultados são aqui entendidos
como os resultados corrigidos.
5.20. Erro
Um resultado correto da medição não é o
valor do mensurando - isto é, ele está com erro
- por causa da medição imperfeita da grandeza
realizada devido a variações aleatórias das
observações (efeitos aleatórios), determinação
inadequada das correções para os efeitos
sistemáticos e o conhecimento incompleto de
certos fenômenos físicos (também efeitos
sistemáticos). Nem o valor da grandeza
realizada nem o valor do mensurando pode ser
conhecido exatamente; tudo que pode ser
conhecido são seus valores estimados. No
exemplo acima da medida da espessura da
chapa pode estar com erro, isto é, pode diferir
do valor do mensurando (a espessura da
chapa), por causa de cada uma das seguintes
contribuições para um erro desconhecido para
o resultado da medição:
a) pequenas diferenças entre as indicações
do micrômetro quando é repetidamente
aplicada à mesma grandeza realizada;
b) calibração imperfeita do micrômetro;
c) medição imperfeita da temperatura e da
pressão aplicadas;
d) conhecimento incompleto dos efeitos da
temperatura, pressão barométrica e
umidade na peça ou no micrômetro ou
em ambos.
O resultado de uma medição menos um
valor verdadeiro da grandeza medida (não
precisamente quantificável por que o valor
verdadeiro cai em algum ponto desconhecido
dentro da faixa de incerteza).
5.22. Limite de Erro Admissível
Valor extremo de um erro admissível por
especificação, norma, legislação, para um dado
instrumento de medição.
5.23. Erro de um instrumento de
medição
Indicação de um instrumento de medição
menos um valor verdadeiro da grandeza de
entrada correspondente. Como, na prática, não
existe um valor verdadeiro, usa-se o valor
verdadeiro convencional, dado por um padrão
confiável. Para uma medida materializada, a
indicação é o valor atribuído a ela e o valor
verdadeiro convencional é o fornecido por
padrão rastreado.
5.24. Erro no ponto de controle
Erro de um instrumento de medição em uma
indicaçãoo especificada ou em um valor
especificado do mensurando, escolhido para
controle do instrumento.
5.25. Erro no zero (zero error)
Erro no ponto de controle de um
instrumento de medição para o valor zero do
mensurando. Um instrumento apresenta erro
de zero, quando sua saída for diferente de zero
154
Vocabulário de Metrologia
para entrada igual a zero. Diz se que um
instrumento apresenta erro de zero quando a
curva real de calibração que deveria passar
pela origem, não passa.
5.26. Erro no span (span error)
Um instrumento apresenta erro de zero,
quando a inclinação de sua curva de calibração
for diferente da inclinação nominal. Diz se que
um instrumento apresenta erro de span quando
a curva real de calibração tem inclinação
diferente da ideal.
5.27. Erro intrínseco (intrinsic error)
Erro de um instrumento de medição,
determinado sob condições de referência.
5.28. Tendência (bias)
Erro sistemático da indicação de um
instrumento de medição. A tendência de um
instrumento de medição é normalmente
estimada pela média dos erros de indicação de
um número apropriado de medições repetidas.
5.29. Isenção de Tendência (freedom
from bias)
Aptidão de um instrumento de medição dar
indicações isentas de erro sistemático.
5.30. Erro fiducial (fiducial error)
Erro de um instrumento de medição dividido
por um valor especificado para o instrumento.
O valor especificado é geralmente chamado de
valor fiducial e pode ser, por exemplo, a
amplitude da faixa nominal ou o limite superior
da faixa nominal do instrumento de medição.
155
Vocabulário de Metrologia
6. Conceitos estatísticos
As definições dos termos básicos estatísticos dados aqui foram tiradas da ISO 3534-1 [7]. Esta
norma deve ser a primeira fonte consultada para as definições de termos não incluídos aqui.
F(x) = Pr(X ≤ x)
6.1. Estatística
Uma função das variáveis aleatórias da
amostra.
Uma estatística, como uma função de
variáveis aleatórias, é também uma variável
aleatória e como tal, assume diferentes valores
para a amostra. O valor da estatística obtida
usando-se os valores observados nesta função
pode ser usado em um teste estatístico ou com
uma estimativa de um parâmetro da população,
tal como uma média ou um desvio padrão.
6.2. Probabilidade
Um número real na escala 0 a 1 atribuído a
um evento aleatório.
A probabilidade pode se referir a uma
freqüência relativa de ocorrência em longo
período de tempo ou a um grau de confiança
que um evento possa ocorrer. Para um alto
grau de confiança, a probabilidade é próxima
de 1.
6.3. Variável aleatória
Uma variável que pode tomar qualquer valor
de um específico conjunto de valores e com a
qual é associada uma distribuição de
probabilidade.
1. Uma variável aleatória que pode tomar
somente valores isolados é chamada de
discreta. Uma variável aleatória que
pode tomar qualquer valor dentro de um
intervalo finito ou infinito é chamada de
contínua.
2. A probabilidade de um evento A é
denotada por Pr(A) ou P(A).
Variável aleatória centrada
Uma variável aleatória cuja expectativa é
igual a zero.
Se a variável aleatória X tem uma
expectativa igual a µ, a variável aleatória
centrada correspondente é (X - µ).
6.5. Função distribuição
Uma função dando, para cada valor x, a
probabilidade que a variável aleatória X seja
menor ou igual a x:
Distribuição de probabilidade (de uma
variável aleatória
Uma função dando a probabilidade que uma
variável aleatória tome qualquer valor dado ou
pertença a um dado conjunto de valores.
A probabilidade de um conjunto inteiro de
valores da variável aleatória é igual a 1.
Função densidade de probabilidade (para
uma variável aleatória contínua)
A derivada (quando ela existir) da função
distribuição:
f(x) = dF(x)/dx
f(x)dx é o elemento probabilidade:
f(x)dx = Pr(x < X < x +dx)
Função massa da probabilidade
Uma função dando, para cada valor xi de
uma variável aleatória discreta, a probabilidade
pi que a variável aleatória X seja igual a xi:
pi = Pr(X = xi)
Desvio padrão (de uma variável aleatória ou
de uma distribuição de probabilidade
A raiz quadrada positiva da variância:
σ = V( X)
Momento central de ordem 1
Em uma distribuição de uma única
característica, a média aritmética da qa
potência da diferença entre os valores
observados e sua média
x é:
n
1
(x i − x)q
∑
n i =1
O momento central de ordem 1 é igual a
zero.
Momento central de ordem q
Em uma distribuição com uma variável, a
expectativa da qa potência da variável aleatória
centrada (X - µ):
E[(X - µ)q]
O momento central de ordem 1 é a variância
da variável aleatória X.
156
Vocabulário de Metrologia
Distribuição normal; distribuição de
Laplace-Gauss
A distribuição de probabilidade de uma
variável aleatória continua X, a função de
densidade de probabilidade de que é
f(x) =
1
σ 2π
e
1 ⎛ x −µ ⎞
− ⎜
⎟
2⎝ σ ⎠
2
para -∞ < x < +∞
µ é a expectativa e σ é o desvio padrão da
distribuição normal.
Distribuição t; (Student)
A distribuição t ou distribuição de Student é
a distribuição de probabilidade de uma variável
aleatória continua t cuja função densidade de
probabilidade é
p( t, ν) =
⎡ ν + 1⎤
⎛ ν + 1⎞
−⎜
Γ⎢
⎟
2
⎥
1
⎣ 2 ⎦ ⎡1 + t ⎤ ⎝ 2 ⎠
⎢
⎥
πν Γ ⎡ ν ⎤ ⎣ ν ⎦
⎢2⎥
⎣ ⎦
onde Γ é a função gama e ν > 0. A expectativa
da distribuição t é zero e sua variância é ν/(n 2) para ν > 2. Quando n → ∞, a distribuição t se
aproxima da distribuição normal com µ = 0 e
σ=1.
A distribuição probabilidade da variável
( z − µ z ) / s( z) é a distribuição t se a variável
aleatória z é normalmente distribuída com
expectativa µz, onde z é a média aritmética de
n observações independentes zi de z, s(zi) é o
desvio padrão experimental de n observações
e s( z ) = s( z i ) /
n é o desvio padrão
experimental da média z com n = ν - 1 graus
de liberdade.
6.6. Parâmetro
Uma grandeza usada para descrever a
distribuição de probabilidade de uma variável
aleatória.
6.7. Característica
Uma propriedade que ajuda a identificar ou
diferenciar entre itens de uma dada população.
A característica pode ser quantitativa (para
variáveis) ou qualitativa (para atributos)
6.8. População
A totalidade de itens sob consideração.
No caso de uma variável aleatória, a
distribuição de probabilidade é considerada
para definir a população desta variável.
6.9. Freqüência
O número de ocorrências de um dado tipo
de evento ou o número de observações caindo
em uma classe específica.
Distribuição de freqüência
A relação empírica entre os valores de uma
característica e suas freqüências ou suas
freqüências relativas.
A distribuição pode ser graficamente
apresentada como um histograma, gráfico de
barra, polígono de freqüência cumulativa ou
como uma tabela de duas vias.
6.10. Expectativa (de uma variável
aleatória ou de uma distribuição de
probabilidade; valor esperado;
média
1. Para uma variável aleatória discreta X
tomando os valores xi dentro das
probabilidades pi, a expectativa, se existir, é:
µ = E( X ) = ∑ pi x i
a soma sendo estendida sobre todos os
valores de xi, que pode ser tomado por X.
2. Para uma variável aleatória contínua X
tendo a função densidade de probabilidade f(x),
a expectativa, se existir, é
µ = E( X ) = ∫ xf ( x )dx
a integral sendo estendida sobre todo o
intervalo de variação de X.
6.11. Desvio padrão
O desvio padrão é a raiz quadrada positiva
da variância.
Uma vez que uma incerteza padrão do Tipo
A é obtida tomando a raiz quadrada da
variância estatisticamente calculada, é
geralmente mais conveniente quando
determinando uma incerteza padrão do Tipo B
para avaliar um desvio padrão não estatístico
equivalente primeiro e depois obter a variância
equivalente elevando ao quadrado o desvio
padrão.
O desvio padrão da amostra é um estimador
não polarizado do desvio padrão da população.
Desvio padrão experimental
157
Vocabulário de Metrologia
Desvio padrão para uma série de n
medições do mesmo mensurando é a grandeza
s(qk) caracterizando a dispersão dos resultados
e dado pela fórmula:
n
s( qk ) =
∑ ( q k − q)
2
k =1
n−1
a
qk sendo o resultado da k medição e q sendo
a média aritmética dos n resultados
considerados
1. Considerando a série de n valores como
uma amostra de uma distribuição, q é
uma estimativa não polarizada da média
µq e s2(qk) é uma estimativa não
polarizada da variância σ2, desta
distribuição.
2. A expressão s( qk ) / n é uma estimativa
do desvio padrão da distribuição de q e
chamado de desvio padrão experimental
da média.
3. O desvio padrão experimental da média
é, às vezes, chamado incorretamente de
erro padrão da média.
6.12. Estimativa
A operação de atribuir, a partir de
observações em uma amostra, valores
numéricos para os parâmetros de uma
distribuição escolhida como o modelo
estatístico da população da qual a amostra é
retirada.
Um resultado desta operação pode ser
expresso como um valor único (ponto
estimado; ou como um intervalo estimado.
Estimador
Uma estatística usada para estimar um
parâmetro da população.
Estimado
O valor de um estimador obtido como um
resultado de uma estimativa.
Intervalo estatístico de cobertura
Um intervalo para o qual se pode
estabelecer, com um dado nível de confiança,
que ele contem no mínimo uma proporção
especificada da população.
1. Quando dois limites são definidos por
estatística, o intervalo tem dois lados.
Quando um dos dois limites não é finito
ou consiste do limite da variável, o
intervalo é de um lado.
2. Também chamado de intervalo de
tolerância estatística. Este termo não deve ser
usado porque ele pode causar confusão com
intervalo de tolerância.
Coeficiente de confiança, nível de confiança
A probabilidade que o valor da grandeza
medida caia dentro da faixa cotada de
incerteza.
Graus de liberdade
Em geral, o número de termos em uma
soma menos o número de limitações nos
termos da soma.
Média aritmética
A soma dos valores dividida pelo número de
valores.
1. O termo média pode se referir a um
parâmetro da população ou ao resultado
de um cálculo dos dados obtidos em
uma amostra.
2. A média de uma única amostra aleatória
tomada de uma população é um
estimador não polarizado da média de
sua população. Porém, outros
estimadores, tais como média
geométrica, média harmônica, mediana
ou moda, podem também ser usados.
6.13. Variância
Uma medida da dispersão, que é a soma
dos quadrados dos desvios de observações de
sua média dividida por um menos o número de
observações.
Por exemplo, para n observações x1, x2,...,
xn com média
x=
1 n
∑ xi
n i=1
a variância é
s2 =
1 n
∑ (x i − x)2
n − 1 i=1
1. A variância da amostra é um estimador
não polarizado da variância da
população.
2. A variância é n/(n - 1) vezes o momento
central de ordem 2.
A variância definida aqui é mais
apropriadamente chamada de estimativa da
amostra da variância da população. A variância
de uma amostra é usualmente definida para
ser o momento centro de ordem 2 da amostra.
A variância de uma variável aleatória é a
expectativa de seu desvio quadrático em
relação a sua expectativa. Assim, a variância
158
Vocabulário de Metrologia
da variável aleatória z com função densidade
de probabilidade p(z) é dada por
σ 2 ( z) = ∫ ( z − µ z ) 2 p( z)dz
onde µz é a expectativa de z. A variância σ2(z)
pode ser estimada por
s 2 ( zi ) =
covariância de variáveis aleatórias y e z é
definida por:
cov(y,z) = cov (z,y) = E{[y-E(y)][z - E(z)]}
que leva a
cov(y,z) = cov (z,y)
1 n
( z i − z) 2
∑
n − 1 i=1
= ∫ ∫ ( y − µ y )( z − µ z )p( y, z)dydz
= ∫ ∫ yzp( y, z)dydz − µ y µ z
onde
z=
1 n
∑ zi
n i=1
e zi são n observações independentes de z.
1. O fator (n -1) na expressão de s2(zi) vem
da correlação entre zi e z e reflete o
fato que há somente (n - 1) itens
independentes no conjunto {zi - z )
2. Se a expectativa µz de z é conhecida, a
variância pode ser estimada por:
s 2 (zi ) =
n
1
(zi − µ)2
∑
n i =1
A variância da média aritmética das
observações, no lugar da variância das
observações individuais, é a medida apropriada
da incerteza de um resultado da medição. A
variância de uma variável z deve ser
cuidadosamente distinguida da variância da
média z . A variância da média aritmética de
uma série de n observações independentes zi
de z é dada por
σ 2 ( z) =
σ 2 ( zi )
n
e é estimada pela variância experimental da
média
s 2 ( z) =
n
s 2 ( zi )
1
=
∑ ( z i − z) 2
n
n(n − 1) i=1
Variância (de uma variável aleatória ou de
uma distribuição de probabilidade
A expressão do quadrado da variável
aleatória centrada
σ 2 = V( X ) = E{[ X − E( X )] 2 }
6.14. Covariância
A covariância de duas variáveis aleatórias é
uma medida de sua dependência mútua. A
onde p(y,z) é a função densidade de
probabilidade conjunta de duas variáveis y e z.
A covariância cov(y,z)] também denotada por
ν(y,z)] pode ser estimada por x(yi,zi) obtido de n
pares independentes de observações
simultâneas yi e zi de y e z,
s( y i , z i ) =
1 n
∑ ( yi − y)( zi − z)
n − 1 i=1
onde
z=
1 n
∑ zi
n i =1
A covariância estimada de duas médias y e
z é dada por s( y , z ) = s(yi,zi)/n
Matriz de covariância
Para uma distribuição de probabilidade
multivariável, a matriz V com elementos iguais
às variâncias e covariâncias das variáveis é
chamada de matriz covariância. Os elementos
diagonais, ν(z,z) = σ2(z) ou s(zi,zi) = s2(zi), são
as variâncias e os elementos fora da diagonal,
ν(y,z) ou s(yi,zi) são as covariâncias.
6.15. Correlação
A relação entre duas ou várias variáveis
aleatórias dentro de uma distribuição de duas
ou mais variáveis aleatórias.
Muitas medidas estatísticas de correlação
medem somente o grau de relação linear.
Coeficiente de correlação
O coeficiente de correlação é uma medida
da dependência mútua relativa de duas
variáveis, igual à relação de suas covariâncias
para a raiz quadrada positiva do produto de
suas variâncias. Assim,
ρ( y, z) = ρ( z, y) =
ν( y, z)
ν( y, y)ν( z, z)
=
ν( y, z)
σ( y)σ( z)
159
Vocabulário de Metrologia
com estimativas
r( y i , z i ) = r( z i , y i ) =
s( y i , z i )
s( y i , y i )s( z i , z i )
=
s( y i , z i )
s( y i )s( z i )
O coeficiente de correlação é um número
puro tal que -1 ≤ ρ ≤ +1 ou -1 ≤ r(yi,zi) ≤ +1.
Notas
1. Como r e r são números puros na faixa
de -1 a +1 inclusive, enquanto as
covariâncias são usualmente grandezas
com dimensões físicas e tamanhos
inconvenientes, os coeficientes de
correlação são geralmente mais úteis
que as covariâncias.
2. Para distribuições de probabilidade
multivariáveis, a matriz de coeficientes
de correlação é usualmente dada no
lugar da matriz de covariância. Desde
que ρ(y,y) = 1 e r(yi,yi) = 1, os elementos
da diagonal desta matriz são 1.
3. Se as estimativas de entrada xi são
correlatas e se uma variação δi em xi
produz uma variação δj em xj, então o
coeficiente de correlação associado com
xi e xj é estimado aproximadamente por
r( x i , x j ) =
u( x i )δ j
u( x j )δ i
Esta relação pode servir como base para
estimar experimentalmente os coeficientes de
correlação. Ela também pode ser usada para
calcular a variação aproximada em uma
estimativa de entrada devido à variação em
outra se o coeficiente de correlação for
conhecido.
6.16. Independência
Duas variáveis aleatórias são
estatisticamente independentes se sua
distribuição de probabilidade conjunta é o
produto de suas distribuições de probabilidades
individuais.
Se duas variáveis aleatórias são
independentes, sua covariância e coeficiente
de correlação são zeros, mas o inverso nem
sempre é verdade.
pode fazer é estimar os valores das grandezas
de entrada, incluindo correções para os efeitos
sistemáticos reconhecidos, junto com suas
incertezas padrões (desvios padrão
estimados), ou de distribuições de
probabilidade desconhecidos que são
amostradas por meio de observações repetidas
ou de distribuições subjetivas ou a priori
baseadas em um pool de informação
disponível e então calcular o resultado da
medição dos valores estimados das grandezas
de entrada e a incerteza padrão combinada
das incertezas padrão destes valores
estimados. Somente se há uma base boa para
acreditar que tudo isso possa ser feito
corretamente, com nenhum efeito sistemático
significativo tendo sido omitido, pode-se
assumir que o resultado da medição é uma
estimativa confiável do valor do mensurando e
que sua incerteza padrão combinada é um
medida confiável do erro possível.
1. Na Fig. 1(a) as observações são
mostradas como um histograma para
fins ilustrativos.
2. A correção para um erro é igual ao
negativo da estimativa do erro. Assim,
na Fig. 1 e na Fig. 2, uma seta que
ilustra a correção para um erro é igual
em comprimento mas aponta no sentido
oposto à seta que ilustra o erro e viceversa. O texto da figura torna claro se
uma seta particular ilustra uma correção
ou um erro.
Fig. 2 mostra algumas das idéias ilustradas
na Fig. 1 mas de modo diferente. Mais ainda,
ela também mostra a idéia que pode haver
muitos valores do mensurando se a definição
do mensurando é incompleta (entrada g da
figura). A incerteza resultante deste definição
incompleta como medida pela variância é
avaliada da medição de realizações múltiplas
do mensurando, usando o mesmo método,
instrumentos, local.
Na coluna Variância as variâncias são
entendida serem as variâncias ui2(y) definidas
na eq. (11); assim elas se somam linearmente,
como mostrado.
6.17. Representação gráfica
A Fig. 1. mostra algumas das idéias
discutidas na cláusula 3 deste trabalho e neste
Anexo. Ela ilustra por que o foco deste trabalho
é a incerteza e não o erro. O erro exato de um
resultado de uma medição é, em geral,
desconhecido e desconhecível. Tudo que se
Apostila\Incerteza
CalculoIncerteza1.doc
01 DEZ 97
160
Vocabulário de Metrologia
(a) Conceitos baseados em grandezas observáveis
Média aritmética não
corrigida das observações
Média aritmética corrigida
das observações
A média aritmética corrigida
é o valor estimado do
mensurando e o resultado da
medição das observações
Incerteza padrão da média
não corrigida devida à
dispersão das observações
Correção de todos efeitos
sistemáticos conhecidos
Incerteza padrão combinada
da média corrigida
Inclui a incerteza da média não
corrigida devida à dispersão das
observações e à incerteza da
correção aplicada
(b) Conceitos baseados em grandezas desconhecidas
Distribuição desconhecida da
população inteira de observações
corrigidas possíveis
Distribuição desconhecida (aqui
assumida ser normal) da população
inteira de observações não
corrigidas possíveis
Média da população desconhecida
(expectativa) com desvio padrão
desconhecido (indicado pelas linhas
verticais)
Erro desconhecido devido a todos
efeitos sistemáticos conhecidos
Erro aleatório desconhecido da média
não corrigida das observações
Erro desconhecido na média corrigida devido ao
erro aleatório desconhecido na media não
corrigida e ao erro desconhecido na correção
aplicada
Erro residual desconhecido na média
corrigida devido ao efeito sistemático não
conhecido.
Valor do mensurando
não conhecido
Fig. 1. Ilustração gráfica de valor, erro e
incerteza
161
Vocabulário de Metrologia
Grandeza
Valor
(não em escala)
Variância
(não em escala)
Valor crescente
a) Observações não
corrigidas
Única medição
b) Média aritmética não
corrigida das observações
c) Correção de todos os
efeitos sistemáticos
conhecidos
d) Resultado da medição
(Não inclui a variância devida à
definição incompleta do
mensurando)
e) Erro residual
(desconhecível)
f) Valor do mensurando
(desconhecível)
g) Valores da mensurando
devidos à definição
incompleta
(desconhecível)
h) Resultado final da
medição
Fig. 2. Ilustração gráfica de valores, erro e incerteza
162
B. Normas ISO 9000
1. Introdução
As normas de qualidade ISO apareceram de
uma necessidade crescente de os países
garantirem, de algum modo, a qualidade de
todas as práticas de fabricação e para garantir
um certo nível de consistência no valor dos
produtos e serviços. Elas foram adotadas no
Brasil em 1990, porém apareceram na Europa
no início dos anos 1980 e foram adotadas nos
EUA em 1987. A Europa adotou estas normas
como parte de seu tratado do mercado comum,
estabelecendo que sem a certificação ISO não
há negócio. Embora isso seja exagerado, os
países envolvidos concordam que este
conjunto de normas de qualidade são muito
importantes no mercado mundial.
As normas ISO 9000 são uma série de
cinco normas - ISO 9000, 9001, 9002, 9003 e
9004 - usadas para documentar, implementar e
demonstrar um programa de garantia da
qualidade da empresa. Elas fazem isto, de um
modo muito genérico, apresentando três
modelos de sistema de qualidade, resumidos
nas normas ISO 9001, 9002 e 9003.
A ISO 9001 é o modelo para projeto e
desenvolvimento, produção, instalação e
serviço. A ISO 9002 se aplica à produção e
instalação e a ISO 9003 se aplica à inspeção e
teste finais. O guia para o uso destas normas
está incluído na ISO 9000 e o guia para
desenvolver o gerenciamento de qualidade e
os elementos do sistema estão descritos na
ISO 9004. As definições dos conceitos de
qualidade estão descritas em outro documento,
ISO 8402, Quality Vocabulary.
As normas não fornecem informações
específicas de como fabricar ou fabricar um
produto com qualidade. As normas não
garantem que o fabricante certificado fornece
um produto com qualidade. As normas apenas
garantem que um fabricante possui um sistema
de qualidade no local e que estes
procedimentos do programa de qualidade
estão documentados e são observados por
todos os empregados.
As normas são escritas de um ponto de
vista de contrato com duas partes. Elas são
projetadas para modelar um sistema de
qualidade que irá encorajar um vendedor a
satisfazer as exigências de qualidade que um
comprador pode esperar do produto final.
As normas ISO 9000 não foram escritas
pela e para a Comunidade Européia, mas por
uma organização mundial, com mais de 100
membros, em Genebra, Suíça. O Brasil é
representado pela ABNT (Associação Brasileira
de Normas Técnicas), uma empresa não
governamental responsável pelas normas
brasileiras.
Em 1992, aproximadamente 52 países,
incluindo o Brasil, já tinham adotado
oficialmente as normas ISO 9000. Como as
normas são muito genéricas, qualquer país
pode fazer pequenas modificações e
alterações de linguagem e publicá-las com
títulos diferentes.
A certificação ISO 9000 é dolorosa para
companhias que não estão preparadas. Podese levar mais de um ano para se ficar pronto
para uma primeira auditoria. O processo de
auditoria em si pode levar de meses até alguns
anos. Mesmo uma companhia que já tenha um
programa de gerenciamento de qualidade pode
ter muito trabalho para ficar de conformidade
com as exigências do certificador ISO. As
normas não são específicas, mas
simplesmente exigem que "todos os
instrumentos sejam calibrados corretamente" e
que seja "escrito um manual de qualidade".
2. Aspectos Legais
A norma ISO 9000 é voluntária, porém se
torna compulsória para muitos fabricantes e
fornecedores das principais firmas
internacionais, especialmente em eletrônica,
computadores, aeroespacial, transporte e
nuclear. As industriais que já possuem suas
próprias normas rigorosas, como farmacêutica
e de alimentos, também adotam a ISO 9000
como norma adicional.
A ISO 9000 é aceita por todos os órgãos
nacionais de normas. Em algumas situações,
ela substitui outras normas nacionais. No
Brasil, a série de normas foi traduzida e
adaptada pela ABNT, assumindo a numeração
NB 900X - ISO 900X (X variando de 0 a 4) e
registrada no INMETRO como NBR 1900X.
Nos EUA, as normas ISO são distribuídas
através da ANSI e pela American Society for
163
Normas ISO 9000
Quality Control (ASQC) e os documentos são
ANSI/ASQC Q90 a Q94.
Ela é um mecanismo pronto para incorporar
e controlar os regulamentos compulsórios. A
ISO 9000 é uma norma para um sistema de
gerenciamento integrado da qualidade no
ambiente industrial.
A conformidade com a norma ISO 9000
pode:
1. reduzir desperdícios,
2. diminuir tempo de paralisação
3. eliminar a ineficiência da mão de obra
4. aumentar a produtividade.
A norma se envolve no projeto, desenvolvimento,
produção, instalação, inspeção, ensaios finais e
assistência técnica pós venda. Ela possui implicação
entre fornecedor e cliente.
A norma ISO 9000 relaciona os cinco
grupos legais de interesse:
1. cliente
2. proprietário
3. fornecedor
4. empregador
5. sociedade
Ela menciona explicitamente a saúde a
segurança no local de trabalho, proteção do
meio ambiente, conservação de energia e dos
recursos naturais. Também se dedica a
discussões de bom senso a respeito da
qualidade. Ela capacita os usuários com maior
consistência, clareza e compreensão.
A norma pode não transformar todo o
processo industrial em algo altamente
produtivo, mas eliminará muitos erros e
confusões nas comunicações e fornecerá um
sistema pratico de controle. Por tudo isso, hoje
há um crescimento epidêmico da ISO 9000 no
Brasil e no mundo.
3. Histórico
A norma ISO 9000 foi publicada em 1987
pela ISO (International Organization for
Standartization - Organização Internacional de
Normalização). Ela se baseou principalmente
na norma inglesa BS 7750.
A norma relaciona e trata de:
1. normas do produto
2. calibração e medição
3. sistemas de gerenciamento da qualidade.
A maior parte dos produtos utilizados na
vida cotidiana apresenta normas.
A maioria das atividades humanas utiliza
medições, que precisam ser aceitas. Estas
medições devem estar monitoradas pelos
órgãos nacionais de calibração e medição.
A calibração e a medição dentro do
processo industrial constituem parte integrante
da norma. O treinamento de todo o pessoal
envolvido é exigido pela norma.
Qualidade é adequação ao uso. É a
conformidade às exigências e especificações.
É o produto projetado e fabricado para
executar apropriadamente a função prevista.
O gerenciamento da qualidade envolve:
1. definição dos objetivos, feita através de
procedimentos detalhados, atribuídos a
cada etapa, desde a compra dos
componentes até a expedição do produto
acabado.
2. normas, atribuídas a componentes,
fornecedores, fabricação e conformidade
com especificações dos produtos.
3. sistema. A definição dos objetivos e os
procedimentos não são suficientes. É
necessário um sistema de medição para o
suprimento, materiais recebidos,
desempenho no processo, inspeção final e
expedição. Também é necessário um
sistema de testes e aferições dos
equipamentos de ensaio.
Deve-se fazer certo desde a primeira vez.
Deve-se prevenir em vez de acompanhar e
corrigir. O sistema satisfatório opera
virtualmente sem inspeção final e sem
departamento de controle da qualidade. O
controle é preditivo antecipatório (feedforward)
e não a realimentação negativa (feedback)
A demonstração da norma ISO 9000 é
aberta, transparente. É uma atitude, um estilo
de vida. Torna acessível o chão de fábrica,
expõe cada setor, mostra a relação entre os
membros da equipe, mostrando ao cliente uma
organização aberta.
4. Normas ISO
Há cinco normas internacionais
relacionadas com a garantia da qualidade,
conhecidas como ISO 9000.
4.1. ISO 9000
ISO 9000 - Gerenciamento da Qualidade e
Normas de Garantia da Qualidade (1987) Diretrizes para Seleção e Uso
ISO 9000-1 - Projeto do Comitê (rev. 1992).
Projeto funcional planejado para 1996 (1992)
ISO 9000-2 - Diretrizes Genéricas para a
Aplicação da ISO 9001, ISO 9002 e ISO 9003 Projeto da norma ISO/DIS 9000-2 (1992)
ISO 9000-3 - Diretrizes para Aplicação da
ISO 9001 em Desenvolvimento, Suprimento e
Manutenção do Software - 1991 como ISO
9000-3.
ISO 9000-4 - Aplicação de Gerenciamento
de Confiança - 1992 (IEC 300-1).
164
Normas ISO 9000
4.2. ISO 9001
ISO 9001 - Sistemas de Qualidade - Modelo
de Garantia da Qualidade no Projeto,
Desenvolvimento, Produção, Instalação e
Assistência Técnica - 1987, Rev. JUL 1994,
Projeto funcional para 1996.
A ISO 9001 destina-se a empresas que
precisam assegurar a seus clientes
conformidade às exigências especificadas é
atendida por todo ciclo, desde o projeto até a
assistência técnica pós venda. É a norma mais
abrangente e completa pois trata do projeto,
desenvolvimento, produção, instalação e
assistência técnica.
A norma estabelece a noção de revisão do
contrato, com definição e documentação do
contrato, resolução de diferenças da proposta e
avaliação da capacidade do fornecedor de
atender as exigências contratuais.
No controle do projeto, envolve o
planejamento, atribuição de atividades,
organização de interfaces, entradas e saídas e
verificação do projeto. Inclui alterações no
projeto, aprovação e distribuição do
documento, controlando as alterações no
documento.
O restante da norma é rotineiro: inclui
compra, identificação e rastreabilidade do
produto, controle da produção, inspeção e
ensaio. A inspeção, medição e calibração tanto
do ensaio como do próprio equipamento de
medição estão incluídas, pois isso constitui
controle de produtos não-conformes.
Manuseio, armazenamento, empacotamento e
expedição também são tratados, pois são
registros da qualidade, auditoria e treinamento.
4.3. ISO 9002
ISO 9002 - Sistemas de Qualidade - Modelo
de Garantia da Qualidade na Produção e
Instalação - 1987, Rev. 1992, Projeto funcional
para 1996.
A ISO 9002 demonstra a capacidade do
fornecedor na produção e instalação. É menos
rígida que a 9001. É a mais comum para
fabricantes.
4.4. ISO 9003
ISO 9003 - Sistemas de Qualidade - Modelo
de Garantia da Qualidade em Inspeção e
Ensaio Finais - 1987, Rev. 1992, Projeto
funcional para 1996.
A ISO 9003 demonstra a capacidade de
inspeção e ensaio de produtos. Quase metade
dos elementos da ISO 9004 é exigida neste
caso. Ela inclui controle de documentação,
identificação do produto e marcação, controle
de produtos reprovados nos ensaios
específicos, sistema de manuseio e
armazenamento, controle de equipamento de
medição e ensaio, técnicas estatísticas e
treinamento.
4.5. ISO 9004
ISO 9004 - Gerenciamento da Qualidade e
Elementos do Sistema da Qualidade Diretrizes - 1987.
A ISO 9004 trata de todas as formas de
serviços, inclusive de fabricação e
fornecimento de produtos.
ISO 9004-1 - Gerenciamento da Qualidade
e Elementos do Sistema da Qualidade Diretrizes - Rev. 1992, Projeto funcional para
1996.
ISO 9004-2 - Gerenciamento da Qualidade
e Elementos do Sistema da Qualidade Diretrizes para Serviços - 1991.
ISO 9004-3 - Gerenciamento da Qualidade
e Elementos do Sistema da Qualidade Diretrizes para Materiais Processados - Projeto
da norma ISO/DIS 9004-3 (1992)
ISO 9004-4 - Gerenciamento da Qualidade
e Elementos do Sistema da Qualidade Diretrizes para Aperfeiçoamento da Qualidade Projeto da norma ISO/DIS 9004-4 (1992)
ISO 9004-5 - Gerenciamento da Qualidade
e Elementos do Sistema da Qualidade Diretrizes para Planos de Qualidade - Projeto
do comitê ISO/DIS 9004-5 (1991)
ISO 9004-7 - Gerenciamento da Qualidade
e Elementos do Sistema da Qualidade Diretrizes para Gerenciamento da
Configuração - Projeto do comitê ISO/DIS
9004-7 (1992)
4.6. Outras normas ISO
ISO 8042 (1986), revista em 1992 Vocabulário do Gerenciamento da Qualidade e
Garantia da Qualidade.
ISO 10011-1 - Diretrizes para Auditoria dos
Sistemas da Qualidade - Auditoria (1990)
ISO 10011-2 - Diretrizes para Auditoria dos
Sistemas da Qualidade - Critérios de
Qualificação para Auditores do Sistema da
Qualidade (1991)
ISO 10011-3 - Diretrizes para Auditoria dos
Sistemas da Qualidade - Gerenciamento dos
Programas de Auditoria (1991)
165
Normas ISO 9000
ISO 10012-1 - Requisitos de Garantia da
Qualidade para Equipamento de Medição Sistema de Confirmação Metrológico para
Equipamento de Medição (1992)
ISO 10012-2 - Requisitos de Garantia da
Qualidade para Equipamento de Medição Controle do Processo de Medição (Projeto
funcional, data imprevista)
ISO 10013 - Diretrizes para
Desenvolvimento de Manuais da Qualidade Projeto do comitê ISO/CD 10013 (1992)
ISO XXXXX - Economia em Qualidade Projeto funcional, data e número ainda
desconhecidos.
5. Filosofia da Norma
A filosofia da norma não é ensaiar com o
propósito de encontrar falhas e sim ter o
produto adequado na primeira vez e usar a
inspeção e o ensaio para garantir sua
conformidade. O princípio é prevenção e não
deteção.
A ISO 9000 exige a verificação completa do
produto para acrescentar às inspeciones e aos
ensaios durante a produção e recomenda:
1. a verificação total de cada produto
proveniente da produção, incluindo nova
verificação na ordem de compra ou
amostragem do lote e amostragem
contínua,
2. auditoria das unidades representativas
da amostra.
5.1. Controle e manutenção do
equipamento
Antes da ISO 9000 havia maior
consideração quanto ao controle da produção e
da engenharia de manutenção. Na década de
1980, a manutenção foi identificada como fator
secundário apenas quanto à eficácia que
produziria uma economia considerável, se
controlada.
Com relação à norma ISO 9000, é
impossível operar uma fabrica dentro de um
nível satisfatório de gerenciamento da
qualidade sem um programa de manutenção
preventiva. Porém, além da manutenção, o
equipamento deve ser verificado quanto a
tendências e precisão, de modo regular e
recalibrado sempre que necessário.
Na revisão de 1994, a ISO 9001 exige a
manutenção adequada de equipamentos para
assegurar a continuidade da capabilidade do
processo (art. 4.9 – g)
5.2. Controle do equipamento de
medição e ensaio
Não basta testar a precisão de um medidor;
é necessário um sistema para controlar a
exatidão dele quanto a medição. Isto implica
em laboratórios de ensaio e calibração e
centros nacionais de calibração, envolvendo
toda espécie de medição, química, elétrica,
eletrônica, física e pneumática. Uma
companhia de grande porte deve ter um
laboratório interno próprio de calibração e
ensaio, porém, deverá rastrear seus
equipamentos contra um centro nacional.
A norma exige:
1. especificação e aquisição adequadas:
amplitude, tendências, precisão,
robustez e durabilidade
2. calibração inicial antes do uso
3. solicitação periódica para calibração
4. evidencia documentaria dos itens
anteriores
5. rastreabilidade quanto às normas de
referência
6. ação corretiva, quando necessário.
O artigo seminal da norma ISO 9001 é o
4.11. Controle de equipamentos de inspeção,
medição e ensaios., com dois sub itens:
1. Generalidades
2. Procedimento de controle
5.3. Calibração do equipamento
Todo equipamento usado para medir
qualquer parâmetro, que se estiver impreciso
pode afetar criticamente a qualidade, deve ser
incluído no sistema de calibração. Deve existir
um Procedimento de Calibração, que inclua a
lista de equipamentos que requerem calibração
e qual a frequência de calibração exigida.
Deve ser feito um Cronograma de
Calibração. Todo equipamento pertencente ao
sistema de calibração deve ter uma etiqueta
afixada com detalhes sobre a próxima data de
calibração.
Toda calibração segue uma norma nacional.
Quando o equipamento estiver fora da
calibração, será removido imediatamente e
levado para o Gerente da Qualidade. Se
possível, o equipamento deve ser substituído e
enviado para recalibração. Deve haver um
Procedimento de ação corretiva, com
instruções.
O cronograma deve ser cumprido. Para
cada item do sistema de calibração, há um
arquivo com detalhes dos resultados de todas
as calibrações.
Todos os operadores dos equipamentos de
inspeção e ensaios são responsáveis para
166
Normas ISO 9000
garantir que o equipamento esteja aferido,
verificando as etiquetas.
Todo item do equipamento de medição e
ensaio deve ter um número de inventário, que
é atribuído no recebimento.
Deve-se garantir que todo equipamento
usado com propósitos de medição seja
adequado à sua aplicação.
Os itens de equipamento de medição e
ensaio classificados como inativos ou usados
como referência e que não exijam calibração
devem ser identificados como tal, através de
uma etiqueta de Calibração Não Exigida.
Deve-se garantir que todos os fornecedores
ou subcontratados utilizados no projeto e
fabricação do dispositivo tenham um sistema
de calibração satisfatório, através de auditorias
de fornecedores.
6. Equipamento de Inspeção,
Medição e Teste
A cláusula 4.11 da Norma ISO 9000
apresenta de controle de equipamentos de
inspeção, medição e ensaios. Ela se aplica a
equipamentos usados na satisfação das
exigências das inspeções de recebimento,
processo e final e teste. É útil enfocar este
elemento da perspectiva de que cada sistema
de medição é um processo envolvendo
materiais, equipamentos, procedimentos,
pessoas e condições ambientes.
O fornecedor deve estabelecer e manter
procedimentos documentados para controlar,
calibrar e manter os equipamentos de
inspeção, medição e ensaios (incluindo
software de ensaio) utilizados pelo fornecedor
para demonstrar a conformidade do produto
com os requisitos especificados. Os
equipamentos de inspeção, medição e ensaios
devem ser utilizados de tal forma que
assegurem que a incerteza das medições seja
conhecida e consistente com a capacidade de
medição requerida.
Deve-se manter um controle suficiente
sobre todos os sistemas de controle usados no
desenvolvimento, fabricação, instalação e
serviço de um produto para fornecer confiança
em qualquer decisão ou ação baseada nos
dados de medição. O controle deve ser
exercido sobre indicadores locais,
instrumentos, sensores, equipamento de teste
e programas de computador. Além disso, a
instrumentação de processo que pode afetar as
características especificadas de um produto ou
serviço deve ser controlada convenientemente.
Para os sistemas de medição de produto e
serviço, os métodos estatísticos são
ferramentas valiosas para conseguir e
demonstra conformidade com as
especificações. Em particular, os métodos
estatísticos são ferramentas preferidas no
preenchimento da exigência global que
"equipamento deve ser usado de modo que
garanta que a incerteza da medição seja
conhecida e seja consistente com a
capacidade de medição requerida". Estes
métodos podem também ser usados para
monitorar e manter sistemas críticos de
medições em um estado de controle estatístico.
O fornecedor irá
a) determinar as medições a serem feitas e
a exatidão requerida e selecionar os
equipamentos apropriados de inspeção,
medição e ensaios com exatidão e precisão
necessárias;
O fornecedor precisa identificar todas as
medições necessárias para demonstrar que o
produto está de conformidade com as
necessidades. Isto inclui as medições do
produto comprado, medições de controle de
processo e medições do produto acabado ou
serviço. Em termos gerais, sempre que o
instrumento de inspeção, medição e teste
fornece dados requeridos pelo sistema de
qualidade, então o equipamento deve ser
identificado, controlador, calibração e mantido
de acordo com as especificações da cláusula
4.11.
O equipamento referido aqui é restrito ao
usado para controlar e verificar a qualidade do
produto. A instrumentação da planta e os
equipamentos de testes fornecidos para a
segurança, controle ambiental, conservação de
energia ou material, podem permanecer fora do
sistema de qualidade. Porém, inclua todos os
equipamentos críticos de inspeção, teste ou
medição no sistema de garantia da qualidade
para medições, independente do objetivo.
Para cada equipamento de medição e teste
deve ser especificado e selecionada aquele
que fornece a precisão, exatidão, robustez e
confiabilidade nas condições reais de serviço.
O fornecedor irá
b) identificar todos dos equipamento de
inspeção, medição e ensaios que possam
afetar a qualidade do produto e calibrá-los e
ajustá-los a intervalos prescritos ou antes do
uso, contra equipamentos certificados tenham
uma relação valida conhecida com padrões
nacional ou internacionalmente reconhecidos.
Quando não existirem tais padrões, a base
usada para calibração deve ser documentada;
167
Normas ISO 9000
A calibração de equipamento de inspeção,
medição e teste deve incluir o seguinte:
1. Verificação inicial da calibração antes de
colocar em operação, verificando a
conformidade com a exatidão e precisão
necessárias. O software e
procedimentos de controle de
equipamento automático de teste
também devem ser verificados.
2. Fazer verificações programadas
periódicas dos sistemas de medição.
Quando fora do critério de aceitação,
fazer recalibração, ajustes ou reparos
para restabelecer a exatidão e precisão
em operação. A recalibração geralmente
deve ser feita somente quando os testes
indicarem que o sistema de medição
estiver estatisticamente fora de controle.
Recalibração excessiva pode aumentar a
variabilidade total.
3. Fazer a rastreabilidade dos padrões de
calibração até os padrões nacionais e
internacionais, se eles existirem. Quando
reconhecidamente estes padrões não
existirem, usar padrões internos. A
preparação e testes destes padrões
internos devem estar de acordo com
procedimentos documentados e
aprovados.
Uma orientação nas exigências gerais para
garantir a qualidade da calibração pode ser
encontrada na norma ANSI/ASQC Standard
M1-1987 - Calibration Systems.
A indústria de processo freqüentemente usa
materiais de referência internos, juntos com
métodos estatísticos para validar o processo
completo de medição. O uso de um material de
referência certificado para verificar a exatidão
(incerteza sistemática) geralmente invalida
somente parte de um dado processo de
medição.
O fornecedor irá
c) definir o processo empregado para a
calibração de equipamentos de inspeção,
medição e ensaios, incluindo detalhes como:
tipo de equipamento, identificação única,
localização, frequência de conferência, método
de conferência, critérios de aceitação e a ação
a ser tomada quando os resultados forem
insatisfatórios;
O fornecedor deve considerar a seguinte
recomendação nos procedimentos de
desenvolvimento e documentação:
1. Os procedimentos de calibração devem
ser documentados, aprovados, mantidos
e controlados como uma parte do
sistema de qualidade. Estes
procedimentos devem definir o critério de
aceitação ou limites e frequência dos
testes.
2. O critério de aceitação deve ser a
precisão e exatidão requeridas para o
teste mais exigente para que este
equipamento é usado.
3. O intervalo de tempo entre as
verificações de calibração e manutenção
devem ser razoáveis para a
necessidade: o fornecedor determinar
isto baseado na experiência e
conhecimento de como o equipamento é
usado. O equipamento e, onde
apropriado, os materiais usados no teste
devem ser verificados, calibrados e
mantidos de acordo com procedimentos
escritos.
4. Onde um sistema de medição é
determinado estar fora de controle ou
fora dos limites de aceitação, fazer a
ação corretiva. A revisão dos registros
de controle estatístico é geralmente
necessária e útil para identificar quando
e se ações corretivas são necessárias.
Se os registros estatísticos mostram que
o processo de medição está fora de
controle (i.e., existe uma causa
especial), o usuário deve remover a
causa antes da recalibração.
O fornecedor irá
d) identificar equipamento de inspeção,
medição e ensaios com um indicador
adequado, ou registros de identificação
aprovados, para mostrar a situação da
calibração;
Fabricantes de instrumentos padrão de medição
especificam e, geralmente, fornecem certificação da
precisão e exatidão de seus equipamentos, quando
entregues. Estas especificações ou certificados de
capacidade devem ser comparadas com as exigências do
processo, contrato, sistema de qualidade e métodos de
teste. A verificação da capacidade do dispositivo contra a
especificação ou certificado do fabricante é recomendada.
Esta informação deve ser incluída na documentação do
sistema de qualidade para o equipamento de inspeção,
medição e teste.
Na indústria de processo, são comuns
equipamentos e procedimentos de medição
complexos. O desenvolvimento de sistemas
especiais de medição deve incluir
determinações da precisão e exatidão.
Considerar, inclusive, o laboratório do
comprador nos estudos de métodos de testes
para produtos acabados. Estes estudos devem
ser conduzidos usando procedimentos aceitos,
como a norma ASTM 4691-87 Standard
Practice for Conducting an Interlaboratory Test
168
Normas ISO 9000
Program to Determine the Precision of Test
Methods.
A avaliação de qualquer capacidade de
sistema de medição deve incluir estudos da
variação devido a amostragem. Na indústria
petroquímica, a variância devida aos
procedimentos de amostragem é geralmente
muito significativa. O controle de
procedimentos de amostragem é uma parte
necessário do controle do sistema de medição.
Onde é usado software de computador,
como parte do sistema de medição, é
necessário testar o desempenho do software
antes dele ser usado para liberar material para
uso ou venda.
O fornecedor irá
e) manter registros de calibração para os
equipamentos de inspeção, medição e ensaios;
f) avaliar e documentar a validade dos
resultados de inspeção e ensaios anteriores
quando os equipamentos de inspeção,
medição ou ensaios forem encontrados fora de
aferição;
Um método muito usado para evidenciar a
calibração é a colocação de etiquetas físicas
em cada peca do equipamento de inspeção,
medição e teste. A etiqueta é marcada com a
identificação do dispositivo, o status corrente
de sua calibração, a identificação da pessoa
que fez a calibração e a próxima data de
calibração.
Na indústria petroquímica, onde centenas
de dispositivos de medição são usados no
processo de produção, alternativas práticas
podem ser usadas, como registros baseados
em computador com condições de verificar o
status da calibração. O usuário deve ser capaz
de demonstra que o sistema efetivamente evita
o uso de medição de um equipamento critico
de inspeção, medição e teste quando sua data
de calibração está vencida.
Além do status de calibração, os registros
de cada parte do equipamento de inspeção,
medição e teste, devem incluir todos os dados
da cláusula 4.11 (c).
A manutenção de rotina e a verificação da
precisão e exatidão dos sistemas de medição
durante a produção devem incluir o arranjo dos
dados obtidos usando amostras de referência
ou padrão.
Para cada sistema de medição incluído no
escopo desta exigência, é necessário
identificar o equipamento e materiais usados
para fazer as medições. Os materiais
particulares (p. ex., soluções analíticas padrão
soluções buffer) devem ser identificadas por
um número de etiqueta ou de algum outro
modo que satisfaça as exigências de
segurança e indique a data de expiração do
material.
O fornecedor irá
g) assegurar que as condições ambientais
sejam adequadas para calibrações, inspeções,
medições e ensaios que estejam sendo
executados;
Quando um sistema de medição é
encontrado fora de calibração ou fora do
controle estatístico, esta parte do sistema
requer uma análise das medições anteriores
obtidas com o sistema de medição. Os
produtos originados enquanto as medições
estavam erradas podem requerer novos testes
para verificar a conformidade com as
especificações. Os registros devem ser
mantidos dos resultados da verificação da
medição, incluindo qualquer substituição de
medições incorretas nos registros do sistema
de qualidade.
O fornecedor irá
h) assegurar que o manuseio, preservação
e armazenamento dos equipamento de
inspeção, medição e ensaios sejam tais que a
exatidão e a adequação ao uso sejam
mantidas;
j) proteger as instalações de inspeção,
medição e ensaios, incluindo tanto materiais e
equipamentos como software para ensaios,
contra ajustes que poderiam invalidar as
condições de calibração.
Esta seção da Normal contem exigências
para garantir que a capacidade de todo
equipamento de inspeção, medição e teste é
protegido contra dano ou ajustes errados.
Dispositivos apropriados de proteção,
blindagens e instruções de trabalho devem ser
incorporados ao sistema de qualidade para
proteger este equipamento. As condições
ambientais apropriadas para o sistema de
medição devem ser continuamente mantidas.
169
Normas ISO 9000
A situação de inspeção e ensaios do
produto deve ser identificada através de meios
adequados, os quais indiquem a conformidade
ou não do produto com relação a inspeção e
ensaios realizados. A identificada da situação
de inspeção e ensaios deve ser mantida como
definido no plano de qualidade ou
procedimentos documentados, ao longo da
produção , instalação e serviços associados do
produto, para assegurar que somente produto
aprovado pela inspeção e ensaios requeridos
ou liberado sob concessão autorizada seja
expedido, utilizado ou instalado.
A exigência relacionando o equipamento ou
programa de computador de teste se aplica a
tais coisas como:
1. moldes ou tintas usadas para preparar
amostras para teste
2. plaquetas padrão de cor
3. amostras de referência usadas para
avaliar aparência, fragrância e outros
fatores
4. programa de sistema de teste para
análise de espectro
5. equipamento de cromatógrafos a gás
Os registros e dados de projeto,
desenvolvimento, controle do sistema de
medição devem ser mantidos. O usuário
sempre pode requerer e rever estes dados
para verificar se os sistemas fornecidos são
adequados.
7. Certificação pela ISO 9000
7.1. Projeto
Introdução
Atualmente, no Brasil, há uma busca
frenética da certificação pela ISO 9000. Para
tal, qualquer firma deve ter um Sistema de
Calibração e Calibração dos instrumentos. O
ponto de partida da implantação de um
Sistema eficiente e eficaz é o treinamento de
todo o pessoal envolvido no processo. O
pessoal deve ter curso de Metrologia onde
sejam mostrados as bases teóricas e os
aspectos técnicos para começar a dominar
com segurança o sistema e passar a trabalhar
de modo sistemático e transparente para
implantar o Sistema de Qualidade que seja
aceito e certificado conforme as normas ISO
9000.
Somente a perseverança e insistência de
um pessoal chave fará o sistema funcionar. O
seguimento sistemático e o rastreamento
contínuo de todos os passos do processo nas
áreas envolvidas, através de auditorias sérias,
deve sustentar o Sistema e lhe dar
credibilidade.
Lógica do Sistema
Deve-se ter um Diagrama de Fluxo (Flow
Chart) para cada atividade do sistema e para a
elaboração dos Procedimentos. Este diagrama
deve ser claro, objetivo e eficaz.
Deve-se desenvolver Procedimentos
Administrativos, Procedimentos Técnicos para
classes de instrumentos e Tabelas Técnicas
para os instrumentos específicos. Todos estes
procedimentos, mesmo com enfoques
diferentes, devem ser consistentes entre si.
Deve-se ter, no mínimo, os seguintes
Procedimentos
1. Composição da Malha de Instrumentos,
para fins de cálculo de incertezas instaladas,
2. Composição da Malha de Instrumentos,
para fins de cronograma de calibração
3. Calibração dos instrumentos
componentes da Malha, como sensores,
transmissores, conversores, indicadores,
registradores, fios de extensão de termopares.
Abrangência
O Sistema de Calibração e Ajuste deve
incluir todas as malhas que impactam a
qualidade, direta ou indiretamente e que
garantam a continuidade operacional da planta.
A sistemática deve garantir que qualquer
alteração (retirada ou colocação) deva ser feita
por consenso entre os responsáveis envolvidos
(Operação e Manutenção), a qualquer
momento.
Em instrumentação, se medem, monitoram
e controlam as variáveis de processo por vários
motivos, entre os quais se destacam:
1. qualidade,
2. segurança,
3. custódia,
4. balanço de processo,
5. economia de energia,
6. ecologia e
7. saúde ocupacional
Atualmente, como o Programa de
Calibração e Ajuste dos Instrumentos é o que
possui o melhor marketing promocional e tem o
suporte da alta direção da empresa, todas as
áreas tendem a incluir neste programa outros
instrumentos que não impactam a qualidade,
mas que devem ser periodicamente calibrados
e aferidos. Esta filosofia deve ser alterada e
paralelo ao programa de Calibração e Ajuste
dos Instrumentos da Qualidade, devem ter
outros programas, igualmente cumpridos,
relacionados com segurança, custódia,
balanço, conservação de energia, ecologia e
saúde ocupacional.
170
Normas ISO 9000
Todo instrumento apresenta incerteza
devida à precisão e incerteza devida à
exatidão. É necessário haver um programa de
manutenção preventiva e corretiva do
instrumento para garantir sua precisão e é
necessário haver um programa de calibração
para garantir sua exatidão. Por isso, o Sistema
de Garantia da Qualidade deve contemplar o
Sistema de Calibração – Ajuste e um Sistema
de Manutenção Preventiva e Corretiva.
A filosofia do Sistema deve considerar
apenas as malhas abertas de indicação e
registro. Nas malhas de controle, somente o
sensor, condicionador de sinal e indicador ou
registrador fazem parte do sistema, não
entrando o controlador nem o elemento final de
controle.
Também faz parte do Sistema e geralmente
é esquecido pelo pessoal de Instrumentação, o
Sistema de Calibração dos Instrumentos de
Laboratório e por isso deve haver comunicação
e consenso entre os sistemas da Manutenção
e do Laboratório.
Linguagem
A linguagem empregada nos procedimentos
deve ser simples e clara, empregando-se
termos conhecidos por todos os envolvidos,
necessitando de um mínimo de definições
adicionais.
Deve haver uma consolidação dos
procedimentos e uma padronização de
linguagem, pois alguns procedimentos serão
usados em mais de uma área (Manutenção e
Laboratório).
O início da sabedoria é chamar as coisas
pelos seus próprios nomes.
Todos os instrumentos do Sistema devem
ser cadastrados, incorporando os símbolos
usados nas normas de simbologia de
instrumentos e usando os termos consagrados
pela Instrumentação.
Dados Técnicos
Somente o essencial deve ser escrito nos
procedimentos administrativos, técnicos e
relatórios. Qualquer dado técnico só deve ser
escrito e constar em um documento se for
utilizado pelo usuário.
Deve-se padronizar a linguagem técnica e
usar somente termos em português; e.g., usar
faixa em vez de range. e largura de faixa em
vez de span.
Tabelas
Na elaboração de tabelas para registros de
calibração e ajuste, deve-se colocar a unidade
da grandeza em um quadro superior, uma
única vez e não deve ser repetida em todas os
quadros da tabela.
Tolerâncias
As tolerâncias ou incertezas devem ser
expressas em
1. unidades de engenharia, preferivelmente
2. na mesma unidade, para que se possa
verificar diretamente a adequação ao uso da
malha instalada
3. quando expressa em percentagem,
esclarecer se é percentagem do fundo de
escala ou do valor medido
4. algarismos significativos consistentes
entre si e com a precisão dos instrumentos.
Unidades de engenharia
Assim como os procedimentos devem ser
escritos em português gramaticalmente correto,
as unidades de engenharia, com nomes e
símbolos corretos devem ser as do SI (símbolo
de Sistema Internacional de Unidades).
Abreviaturas e símbolos
Os nomes e símbolos das unidades estão
claramente definidos no SI e devem ser
seguidos. Na documentação, deve-se também
padronizar de nomes e de abreviaturas de
nomes.
Deve se fazer um procedimento para
abreviar os nomes de áreas, equipamentos e
instrumentos, pois isso é fundamental para se
ter uma manipulação correta dos dados nos
programas de computador, definindo a
quantidade de letras na abreviatura, uso do
ponto e do espaço e colocação de preposição.
Quantidade de documentos
Há uma crítica generalizada de que o
Sistema de Calibração e Ajuste envolve muita
papelada e que esta papelada é inútil e perda
de tempo. É muito difícil mudar a mentalidade
de uma pessoa que durante anos fez o seu
trabalho sem documentá-lo e sem preencher
relatórios e registros. É muito difícil convencer
alguém a escrever o que ele faz e ele acreditar
que estes registros são úteis para a melhoria
de seu trabalho e não é um meio para patrulhar
o seu trabalho.
Numa auditoria do sistema de qualidade da
ISO 9000, inicialmente o auditor verifica se a
documentação trata dos elementos da
qualidade. Posteriormente, ele visita os locais,
coletando e analisando evidências para
verificar se os controles do sistema, descritos
na documentação estão sendo implementados
e funcionando adequadamente.
Uma planta típica, com algumas dezenas de
malhas incluídas no Sistema de Qualidade da
ISO 9000 deve ter necessariamente um
cadastro de instrumentos, procedimentos
administrativos e técnicos, registros de
calibração e ajuste. Quando os processos são
171
Normas ISO 9000
simples e com muitas malhas iguais repetidas,
a quantidade de procedimentos se torna
relativamente pequena.
A evidência do cumprimento de um sistema
de qualidade é a documentação, que deve ser
simples e agradável.
Registre o que realmente é feito e não perca
tempo com o que deveria ser feito.
Use sempre os procedimentos existentes,
que devem ser simples, resumidos, exatos,
completos, compreensíveis e úteis.
Faça sempre como está escrito.
Escreva tudo de importante que é feito.
7.2. Implementação
Organização
O maior obstáculo à implantação do
Sistema é passar a mensagem da Qualidade a
todos os funcionários. O processo exige a
participação consciente e voluntária de todos
os funcionários simultaneamente, além de um
gerenciamento competente e dedicado
prioritariamente ao sistema.
Para que o Sistema de Calibração da
Qualidade seja implementado com sucesso é
necessário:
1. Identificar os instrumentos de processo
sobressalentes que devem estar
separados dos outros não pertencentes
ao Sistema de Qualidade.
2. Identificar e separar os instrumentos sem
condição de uso, não calibrado, não
pertencente ao Sistema de Qualidade.
3. Armazenar os instrumentos em locais
adequados e previstos para tal,
cuidando-se da limpeza, ordenação,
seleção e separação. Seguir as
recomendações do fabricante, quanto à
posição e condições ambientais.
4. As atividades de reparo e calibração
devem ser demonstravelmente
separadas, de modo que o responsável
pelo reparo de um instrumento nunca
esteja envolvido na subsequente
calibração e certificação deste
instrumento.
5. Ter disciplina na organização da
documentação, separando os registros
diferentes e agrupando na mesma pasta
os registros do mesmo tipo, sempre em
ordem cronológica.
6. Fazer as correções e revisões dos
procedimentos administrativos e
técnicos, quando necessário e sempre
de modo oficial. Atuar para modificar e
não modificar sem atuar, fazendo
correções a lápis nos procedimentos, de
modo informal.
7. Fazer registros de não conformidade
devida a instrumentos de processo com
defeito.
8. Ter sempre Procedimento Técnico para
fazer calibração e manutenção de
instrumento específico e não usar
apenas o manual do fabricante, que não
o substitui totalmente.
9. Controlar uso de instrumento com
Restrição de Uso por causa da
calibração incompleta devida à falta de
padrões secundários adequados.
10. Justificar o estabelecimento da
freqüência de calibração de cada
instrumento, através de critério técnico
confiável e evidente.
11. Usar o instrumento padrão somente com
o correspondente Registro de
Calibração.
12. Evitar que as não conformidades se
repitam contínua e sistematicamente,
através de ações corretivas, atuando nas
causas e não nos efeitos.
Infra-estrutura
Deve-se ter uma Oficina de Manutenção,
cuidando da calibração dos instrumentos de
processo e um Laboratório de Metrologia
calibrando estes instrumentos de calibração.
Estabelecer uma política clara e definida
nos procedimentos para utilizar os
instrumentos que atendam as exigências
metrológicas, principalmente entre os
instrumentos padrão das áreas (padrões
terciários) e os instrumentos padrão do
Laboratório de Metrologia (padrões
secundários).
Estabelecer mecanismos para que a
modernização dos instrumentos de controle de
processo implique também na modernização
consistente dos instrumentos de calibração e
ajuste destes instrumentos do processo.
Informatização e instrumentação
No Brasil, ainda há poucos computadores
usados como ferramenta de suporte para a
manutenção preventiva e corretiva dos
instrumentos. Qualquer sistema confiável e
eficiente de Calibração deve alterar consistente
e dinamicamente os intervalos de calibração e
isso só pode ser feito se houver um programa
de computador, que seja entendido e aplicado
por todos os envolvidos. Para este programa
ser futuramente empregado, é necessário que
todo o pessoal já tenha familiaridade com a
informática. Porém, somente o computador não
resolve; é necessário se criar antes uma infraestrutura organizacional eficiente.
Formação e qualificação do pessoal
172
Normas ISO 9000
O investimento nos equipamentos deve ser
complementado com o investimento no
pessoal. Toda pessoa necessita de
treinamento e sempre o faz, por programação
ou por acidente. A pessoa bem treinada fica
motivada para fazer melhor o seu trabalho e a
um menor custo para a empresa.
Para dominar o Sistema de Calibração e
Ajuste de Instrumentos, toda pessoa envolvida
deve ter conhecimentos sólidos de
Instrumentação, Metrologia e Estatística. O
treinamento do pessoal é tão importante na
qualidade que é mencionado nas cláusulas
4.18 (ISO 9001), 4.17 (ISO 9002) e 4.11 (ISO
9003).
Gerência
O gerenciamento do Sistema de Calibração
e Ajuste deve ser bem dominado por todos os
supervisores das áreas, que devem ter o total
apoio da alta direção.
Este apoio significa
1. quadro de pessoal suficiente,
2. facilidade de obtenção de microcomputadores modernos,
3. facilidade de compra de equipamentos
de calibração e ajuste adequados,
4. facilidade de se programar e executar
treinamento do pessoal.
Documentação
A documentação do sistema deve ser atual,
conservada, divulgada entre todos os
envolvidos e bem dominada pela maioria. No
sistema de qualidade, é muito útil a troca de
experiência entre as áreas, pois se aprende
com os erros dos outros. É demorado aprender
tudo sozinho. É também fundamental aprender
com as experiências bem sucedidas de outras
empresas, mesmo de outra atividade
totalmente diferente, como Xerox, IBM,
Petrobrás, Vale do Rio Doce, Copene, Celpav
e CSN.
Faltam encontros internos agendados onde
se possa levantar e discutir problemas
potenciais, disseminar experiências que deram
certo e corrigir rumos.
Catálogos
Os catálogos técnicos dos instrumentos são
úteis para se fazer corretamente sua
manutenção e calibração. Aliás, um critério
para o cadastro e escolha do fabricante de
instrumento deve ser a disponibilidade de
catálogos claros e úteis. Os catálogos de
instrumentos são a fonte de consulta para a
determinação das incertezas dos instrumentos
e por isso eles devem ter as informações
acerca de exatidão e precisão bem explícitas.
Procedimentos
O Sistema de Calibração de uma planta
pode envolver dezenas e até centenas de
procedimentos administrativos e técnicos.
Toda calibração correta envolve o
instrumento a ser calibrado, padrões, operador
e um procedimento escrito. O procedimento
escrito de calibração é o meio de tirar o
máximo do bom equipamento e do operador
treinado, definindo a interligação, seqüência de
passos da calibração, dados a serem tomados
e o grau de conformidade a ser conseguido.
O procedimento deve refletir a maneira pela
qual as coisas são realmente feitas. O objetivo
de um procedimento é assegurar que uma
tarefa seja feita do mesmo modo, chegando-se
aos mesmos resultados, feita pela mesma
pessoa em tempos diferentes ou feita por
pessoas diferentes, simultaneamente. Para
tornar a tarefa objetiva, o procedimento deve
tirar toda subjetividade e vontade do operador.
O procedimento administrativo (PA) deve
indicar quando se deve fazer os ajustes
necessários e o procedimento técnico (PR) e o
registro (PP) devem indicar especificamente a
classe de incerteza dos instrumentos padrão
usados, os valores encontrados e os valores
limites para se fazer os ajustes de calibração.
Por exemplo, deve haver um Procedimento
Administrativo relacionado com a calibração de
registradores eletrônicos, um Procedimento
Técnico relacionado com determinado
registrador eletrônico, com entrada de
milivoltagem de termopar e deve haver uma
tabela com valores específicos para
determinada aplicação de registro de
temperatura.
No mínimo, um procedimento administrativo
deve ter os seguintes tópicos:
1. política
2. objetivo
3. escopo
4. responsabilidades
5. definições
6. documentos associados
7. diagrama de blocos (flowchart)
8. descrição do diagrama de blocos
9. procedimento
10. distribuição e registros
Registros
Nos registros devem ser anotadas as
leituras dos instrumentos e nada mais que as
leituras.
No mínimo, um registro de calibração e
ajuste deve ter os seguintes campos:
1. identificação do instrumento (serial, tag,
fabricante, modelo
2. valores encontrados antes do ajuste
3. valores lidos depois do ajuste
4. valores limites aceitáveis
173
Normas ISO 9000
5. instrumentos padrão utilizados com
rastreabilidades válidas
6. local de calibração, com condições
ambientais estabelecidas
7. critério de aceitação
8. data de calibração - ajuste
9. data da próxima calibração programada
10. nome e assinatura do executante
11. nome e assinatura do responsável pela
aprovação
12. correções devidas à temperatura
diferente da teórica e outros fatores.
É comum se encontrar registros sucessivos
com as leituras idênticas e redondinhas (4,00;
6,00; 8,00; 10,00; 12,00; 16,00; 18,00 e 20 mA
cc). Isto é estatisticamente impossível de
ocorrer. Estas anotações indicam que o
instrumentista não leu corretamente as leituras
dos instrumentos, mas escreveu os valores
nominais esperados ou então usou instrumento
com classe de precisão insuficiente. Estes
registros não podem ser considerados
evidências de calibração. Estes registros são
totalmente inúteis e não permitem o Controle
Estatístico de Processo que já é recomendado
pela norma ISO 9001 (JUL 94) e certamente
será obrigatório na próxima revisão.
Os registros preenchidos devem ser
aprovados pelo Chefe de Divisão e pelo
Supervisor da área. Esta aprovação deve ser
séria e feita somente após a leitura atenciosa
dos dados registrados.
Deve-se ser íntegro, escrevendo o que se lê
e não o que deva dar e nem o que o chefe
quer.
Equipamentos e instrumentos
Instalações de Processo
A maioria das instalações de medição e
controle de processo está adequada para as
necessidades metrológicas do processo.
Mesmo uma instrumentação pneumática, com
mais de dez anos de uso, pode ser adequada
para atender as necessidades metrológicas de
um processo pouco exigente.
Oficinas de Manutenção e de Reparo
A oficina de Manutenção e Reparo deve ser
reaparelhada para se adequar às exigências do
Sistema de Calibração e Ajuste. Deve-se ter
um ambiente limpo e agradável de se trabalhar,
com locais adequados para se armazenar e
separar os instrumentos de processo e de
teste.
Laboratório de Metrologia
O Laboratório de Metrologia deve ser a
referência metrológica de todas as áreas da
empresa (Manutenção, Produção, Laboratório).
Com dinheiro suficiente, qualquer pessoa pode
sair por aí e comprar um instrumento de
calibração, que sozinho não garante boas
calibrações. A chave é um conjunto fixo de
procedimentos e a disciplina em sua aplicação.
Por isso, o Laboratório de Metrologia deve ser
o modelo de disciplina e rigor no cumprimento
dos procedimentos escritos. O Laboratório
deve produzir uma listagem ou gráfico que
mostre as variáveis físicas, como pressão,
temperatura, voltagem ou corrente elétrica que
podem ser calibradas e a exatidão
correspondente.
O Laboratório de Metrologia deve ter
instrumentos padrão que sejam mais precisos
que os instrumentos calibrados. Nenhuma
norma estabelece números obrigatórios de
relação entre incerteza do padrão e do
instrumento calibrado, pois esta relação
depende do risco associado com o processo de
medição, que varia para cada processo, por
isso sugerindo varias relações. Algumas
normas sugerem e justificam determinadas
relações (MIL STD 45662 recomenda o mínimo
de 4:1, o INMETRO recomenda 3:1), mas são
apenas sugestões. Se uma empresa determina
que a relação mínima entre as incertezas do
instrumento calibrado e do padrão seja de 3:1,
todos devem entender e administrar as
conseqüências desta relação, principalmente o
Laboratório de Metrologia.
Consistentemente, o Laboratório de
Metrologia deve ter métodos de calibração
mais rigorosos e controlados. O Laboratório de
Metrologia deve ter métodos de calibração
monitorados por computador, onde seja
possível se calibrar muito mais pontos, diminuir
a probabilidade de erros, apresentar
certificados de calibração com melhor estética
e mais compreensíveis ao usuário.
O Laboratório de Metrologia deve ter um
ambiente controlado; com a temperatura igual
a 23 ± 5 oC, umidade relativa entre 20 a 60%. A
pressão atmosférica, gravidade e campos de
interferência de rádio frequência (RF) devem
ser conhecidos. A temperatura influi em
comprimento, área, volume e nos parâmetros
elétricos indiretos das substâncias. A umidade
altera a isolação de plásticos e placas de
circuito impresso e a condução de superfícies.
A pressão atmosférica afeta o empuxo e o
peso das massas. A calibração de
instrumentos de pressão absoluta requer o
conhecimento exato da pressão atmosférica. A
aceleração da gravidade local deve ser
conhecida, quando se tem padrões de pressão
a pistão e a peso morto. Embora os
instrumentos geralmente não sejam sensíveis à
iluminação, os operadores o são.
Estes cuidados e exigências do Laboratório
de Metrologia devem ser bem entendidos, pois
174
Normas ISO 9000
seu objetivo é calibrar e aferir os instrumentos
padrão que calibram os instrumentos de
processo. O Laboratório de Metrologia de uma
empresa é para atender as exigências do chão
de fábrica e não um laboratório científico para
enviar foguetes no espaço sideral. As
sugestões das normas estabelecem também
uma relação máxima entre as incertezas do
instrumento calibrado e do padrão, tipicamente
em 10:1. Ter padrões acima desta relação é
um desperdício de dinheiro e não há nenhuma
vantagem prática detectável. Por isso, toda
aquisição de padrão deve ser criteriosamente
analisada sob o ponto de vista metrológico e
econômico.
A empresa deve estabelecer a sua política,
definindo o número de degraus da cadeia de
rastreabilidade metrológica e deve seguir esta
política. A filosofia recomendada para a cadeia
metrológica de uma empresa de tamanho
médio seria:
1. instrumentos de processo,
2. padrões terciários, mantidos nas oficinas
de área, para calibrar os instrumentos de
processo,
3. padrões secundários, mantidos no
Laboratório de Metrologia, para calibrar
os padrões terciários,
4. os padrões secundários, calibrados fora
da empresa
O Laboratório de Metrologia é a interface
entre a empresa e os laboratórios externos,
preferivelmente os da Rede Brasileira de
Calibração. Para ser eficiente, o Laboratório
deve
1. Garantir através de pedido bem
especificado que todo instrumento
enviado para os laboratórios externos
seja calibrado e ajustado e não apenas
aferido.
2. Exigir que os padrões usados na
calibração tenham uma determinada
incerteza (sugestão: mínima de 5 vezes).
Quando se tem um instrumento calibrado
com incerteza igual à do padrão, o
instrumento herda a incerteza do padrão
e a incerteza da medição com o
instrumento calibrado é igual à soma das
duas incertezas.
3. Devolver o instrumento e não pagar o
serviço quando estas exigências não
forem cumpridas.
4. Exigir que o algorítmo de cálculo de
incerteza seja definido
5. Solicitar a probabilidade ou o limite de
incerteza real (2σ ou 3σ)
O Laboratório de Metrologia deve orientar
claramente, de modo didático, o uso de
instrumento degradado ou estabelecer
Procedimento para a adequação ao uso deste
instrumento.
7.3. Comprovação Metrológica
Introdução
Na implantação do Sistema de Calibração e
Ajuste para a certificação da ISO 9000, há as
seguintes etapas:
1. o Processo lista as malhas de
instrumentos que impactam a qualidade
do produto, estabelecendo os limites de
incerteza para cada grandeza indicada,
2. a Instrumentação calcula ou mede as
incertezas dos instrumentos já
instalados, comprados sem nenhuma
critério metrológico, há muitos anos
atrás,
3. faz-se o consenso, para adequar ao uso
os instrumentos instalados, quando
algumas tolerâncias requeridas devem
ser aumentadas, mantendo-se os
instrumentos existentes ou alguns
instrumentos são mudados, com
incertezas menores, para atender as
incertezas requeridas.
Estas tarefas envolvem vários conceitos
importantes de Instrumentação, que se não
forem bem entendidos e aplicados, dá
resultados totalmente errados. Para isso, é
necessário entender e usar corretamente
1. O conceito de malha de instrumentos,
que tipicamente possui um sensor, um
condicionador de sinal e um instrumento
de display.
2. O discernimento de detectar os
instrumentos que afetam a incerteza da
medição em malhas multivariáveis, com
vários condicionadores de sinal; e.g.,
malha de indicação de vazão com
compensação de pressão e temperatura.
3. O comportamento do operador na sua
tomada de decisão, se usa a indicação
do indicador, a indicação do controlador,
o registro ou a totalização. Tem-se uma
malha com um tacômetro, um conversor,
um indicador local, um indicador no
painel e um registrador de painel; onde
apenas o indicador de painel é usado
pelo operador para tomar decisões.
4. O conceito de multiplexação, mesmo
quando mecânica, quando se tem vários
sensores, vários registradores e um
único indicador, podendo ter várias
combinações de malhas.
5. O conceito de modularidade aplicado à
instrumentação de SDCD e CLP, onde a
malha de indicação inclui a interface
entrada/saída (I/O) e a indicação do
monitor de vídeo (tubo de raio catódico).
175
Normas ISO 9000
6. As informações contidas nos catálogos
dos fabricantes, onde os dados
metrológicos são incompletos, errados
por má fé ou por incompetência ou
inexistentes,
7. O bom senso para se usar fatores de
degradação e drift, devidos ao
envelhecimento, influência do meio
ambiente agressivo e do padrão de
calibração indevido, determinando-se
estes fatores através de dados
estatísticos e experimentos de
laboratório.
Composição das malhas
Para fins de qualidade, a malha de
instrumentos inclui apenas o elemento sensor,
elemento condicionador de sinal e o
instrumento de display (indicador ou
registrador). Não é necessário considerar os
instrumentos de controle e o elemento final de
controle.
O que Sistema cuida é que a indicação
esteja dentro dos limites de incerteza
estabelecidos pelo processo. Ocorre uma não
conformidade quando se pensa que a
indicação está correta e se verifica que ela está
errada, quando se faz a aferição do
instrumento indicador. A partir dessa não
conformidade, devem ser tomadas ações
corretivas e preventivas, inclusive rastrear o
produto, quando isso for previsto por contrato.
Quando há problemas no controlador ou no
elemento final de controle, o produto sai fora da
especificação e instantaneamente, o operador
percebe a não conformidade e, em linha com o
processo, atua no processo para levar a
indicação para os limites previstos pelo
processo.
Cálculos de incertezas das malhas
No cálculo das incertezas das malhas do
Sistema de Qualidade, o algoritmo de cálculo
típico é aquele onde a incerteza total é a raiz
quadrada da somas dos quadrados das
incertezas individuais.
Os cálculos das incertezas devem ter a
referência bibliográfica (catálogo de fabricante,
literatura técnica, registro).
Compatibilidade metrológica
A incerteza da malha de instrumentos
instalada deve ser menor que a incerteza
requerida pelo processo. Este menor é vago, e
por isso deve ser definida uma relação
numérica entre estas incertezas (não use
adjetivos, use números), consistente com a
política metrológica de toda a empresa, pois há
implicações nas incertezas dos padrões
terciários, secundários e em toda cadeia de
rastreabilidade.
Geralmente, as incertezas requeridas pelo
processo são arbitrariamente estabelecidas
pela Produção ou; quando há critérios, eles
não são informados à Instrumentação. Em
algumas situações, os valores das incertezas
requeridas pelo processo são estabelecidos
depois que a Instrumentação calcula os valores
das incertezas instaladas.
Há casos em que a incerteza calculada é
maior que a requerida pelo processo. Mas,
como a empresa já funciona há muitos anos e
o seu produto está dentro da especificação
nominal, pode-se concluir que
1. a incerteza requerida pelo processo está
errada e poderia ser maior ou
2. a malha de instrumentos não impacta a
qualidade final do produto.
Calibração por malha
Não imagine quando puder calcular e não
calcule quando puder medir.
O aceitável é considerar a incerteza medida
do instrumento não-conforme associada com
as incertezas máximas dadas pelo catálogo
dos fabricantes dos instrumentos. Porém, é
preferível medir a incerteza da malha, em vez
de calcular a incerteza total a partir das
incertezas dos instrumentos componentes. Isto
é conseguido facilmente, desde que a empresa
faça a calibração por malha e não por
instrumento. Além de se ter um tratamento
mais realista das não conformidades, tem-se
várias outras vantagens, tais como:
1. gasta-se menos tempo na calibração por
malha, pois uma malha típica tem três
instrumentos,
2. a calibração é mais confiável, pois não
se tem o risco de descalibrar o
instrumento na retirada, transporte e
recolocação dos instrumentos,
3. a calibração é mais exata, pois todos os
efeitos da instalação são considerados
naturalmente.
4. tem-se a medição e não o cálculo da
incerteza, coerente com a
recomendação metrológica de não
imaginar quando puder calcular e não
calcular quando puder medir..
Obviamente, a calibração por malha tem
algumas desvantagens, como:
1. necessidade de reescrever os
procedimentos orientados para
calibração de instrumentos individuais,
2. disponibilidade de padrões que possam
ser usados na área industrial,
3. necessidade de medir as condições de
calibração (temperatura, umidade,
ambiente).
Como conclusão, é vantajoso se fazer a
calibração por malha (como regra) e, em caso
176
Normas ISO 9000
de não-conformidade, fazer a calibração dos
instrumentos individuais (exceção).
Prevendo esta tendência mundial, os
fabricantes de instrumentos de teste e
calibração desenvolveram vários instrumentos
multitarefa para executar calibrações na área
industrial (Altek, Beamex, Eutron, Fluke,
Hathaway, Rochester, Ronan, Transmation,
Unomat).
Revisão 2000 da ISO 9000
As normas ISO 9000 terão uma revisão em
2000. Já há testes de implementação do
rascunho (draft) desta revisão, antes da
finalização e publicação das normas ISO 9001
e 9004.
177
Conclusão final
Mesmo com as dificuldades inerentes à mudança de hábitos e motivação de pessoal,
ao ceticismo de uns e à omissão de outros, um Sistema de Calibração e Ajuste dos
Instrumentos pode funcionar bem e receber a certificação ISO 9002.
Todo mundo deve ter um treinamento contínuo, para haver um posicionamento
mental orientado para a equipe e para elevar o moral e a eficácia do pessoal.
Como recomendações finais, tem-se:
1. programar e executar um treinamento de todo pessoal envolvido no Sistema.
2. estabelecer com critério a lista das malhas que impactam a qualidade e garantem a
continuidade operacional da planta, com as suas respectivas incertezas.
3. fazer criteriosamente os cálculos das incertezas das malhas requeridas pelo
processo, considerando os parâmetros de especificações nominais, drift e
influências da instalação,
4. fazer um Manual de Qualidade e escrever um conjunto de documentos,
principalmente os procedimentos técnicos e administrativos, adequando os
conceitos de instrumentação e uniformizando a terminologia;
5. estabelecer uma política e procedimentos do Laboratório de Metrologia, tornando-o
centro de referência de todas as áreas da empresa, estabelecendo a comunicação
adequada com a Produção e Laboratório,
6. implantar um sistema adequado de microcomputadores na Oficina de Manutenção,
Laboratório de Metrologia e Laboratório Químico-Físico,
7. escolher um programa de gerenciamento do Sistema de Calibração e Aferição que
atenda as especificidades da empresa e rode nos computadores acima;
8. adquirir instrumentos de teste e aferição (padrões terciários) em quantidade
apropriada e com precisão metrologicamente consistente;
9. implantar um sistema de Controle Estatístico do Processo para os dados dos
registros de calibração;
10. estabelecer uma filosofia de calibração do sistema para aferição por malha, como
regra e aferição por instrumento, como exceção;
Apostila\Metrologia
ApB-ISO9000.doc 26 MAI 97(Substitui 04 JUN 96)
178
C. Rede Brasileira de Calibração
Laboratório
ABCP – Associação Brasileira de Cimento Portland
Cidade, UF
São Paulo, SP
Telefone
(011) 268-5111
ABSI - Indústria e Comércio Ltda
Balitek – Instrumentos e Serviços Ltda
São Paulo, SP
São Paulo, SP
(011) 914-8987
(011) 215-0088
Ceman – Central de Manutenção Ltda
Camaçari, BA
(071) 832-8586
Cepel - Centro de Pesquisas de Energia Elétrica
Rio de
Janeiro, RJ
Florianópolis,
SC
(021) 767-2111
Belo
Horizonte, MG
Porto Alegre,
RS
Joinville, SC
(031) 486-1000
Grandezas
Dimensão
Força
Pressão
Dimensão
Pressão
Dimensão
Pressão
Eletricidade
Tempo
Dimensão
Força
Pressão
Força
(051) 592-5618
Dimensão
(047) 432-0133
Dimensão
Curitiba, PR
Volta
Redonda, RJ
Vitória, ES
(041) 366-2020
(0243) 44-705
Eletricidade
Dimensão
(027) 348-2162
São José dos
Campos, SP
São Paulo,
SP
Piedade, SP
(012) 340-3355
Eletricidade
Pressão
Temperatura
Dimensão
(011) 453-5477
Pressão
(0152) 44-3000
(047) 441-2686
Temperatura
Dimensão
(092) 237-5858
Dimensão
Furnas, MG
(035) 523-1001
Ibametro – Instituto Bahiano de Metrologia,
Normalização e Qualidade Industrial
IEE/USP - Instituto de Eletrotécnica e Energia da
Universidade de São Paulo
IFM - Instituto Fluminense de Metrologia SC
Ltda
Simões Filho,
BA
São Paulo, SP
(071) 394-1172
Eletricidade
Tempo
Massa
(011) 815-2423
Eletricidade
Petrópolis,
RJ
(0242) 21-2652
INPE - Instituo Nacional de Pesquisas
Espaciais
Instituto Presbiteriano Mackenzie
São José dos
Campos, SP
São Paulo,
SP
Rio de
Janeiro, RJ
São Paulo,
SP
São Bernardo
do Campo,
SP
(012) 325-6274
(021) 253-9294
Eletricidade
Pressão
Temperatura
Eletricidade
Tempo
Dimensão
Força
Força
(011) 265-4577
Temperatura
(011) 419-0200
Dimensão
Certi - Fundação Centro Regional em Tecnologias
Inovadoras
Cetec - Fundação Centro Tecnológico de Minas
Gerais
Cetemp/Senai RS - Centro Tecnológico de
Mecânica de Precisão
CMPJ – Centro de Mecânica de Precisão de
Joinville
Copel – Companhia Parananense de Energia
CSN – Companhia Siderúrgica Nacional
CST – Companhia Siderúrgica Tubarão
CTA - Centro Técnico Aeroespacial
Dresser Indústria e Comércio Ltda – Divisão de
Manômetros Willy
Ecil S.A.
Embraco – Empresa Brasileira de
Compressores
Fucapi – Fundação Centro de Análise, Pesquisa
e Inovação Tecnológica
Furnas Centrais Elétricas SA
INT - Instituto Nacional de Tecnologia
IOPE Instrumentos de Precisão Ltda
IPEI - Instituto de Pesquisas e Estudos
Industriais
(0482) 34-3000
(011) 236-8766
179
Rede Brasileira de Calibração
IPT - Instituto de Pesquisas Tecnológicas do
Estado de São Paulo SA
São Paulo,
SP
(011) 268-2211
K&L Assistência Técnica em Instrumentos de
Medição
Mitutoyo do Brasil Indústria e Comércio Ltda
Naka Instrumentação Industrial Ltda
PUC/RJ - Pontifícia Universidade Católica do Rio
de Janeiro
São Paulo, SP
São Paulo, SP
Rio de
Janeiro, RJ
(011) 478-4544
(011) 417-1177
(021) 259-5197
PUC/RS - Pontifícia Universidade Católica do Rio
Grande do Sul
Porto Alegre,
RS
(051) 339-1511
Senai/RJ – Cetec de Metal Mecânica Euvaldo Lodi
Sharp do Brasil S.A.
Rio de Janeiro
Manaus, AM
(021) 569-1322
(092) 614-2533
Siemens S.A.
São Paulo, SP
(011) 833-4405
Tektronix Indústria e Comércio Ltda
São Paulo, SP
Tridmensional Leka’s Medições Ltda
Rio de
Janeiro, RJ
Santos, SP
(011) 37418417
(021) 270-5888
Triel Engenharia Ltda
Unicamp - Centro de Tecnologia da Universidade
Estadual de Campinas
Yokogawa Elétrica do Brasil Indústria e Comércio
Ltda
(0474) 26-1712
(013) 227-5666
Campinas, SP
(0192) 39-1103
São Paulo, SP
(011) 548-2666
Dimensão
Eletricidade
Força
Massa
Pressão
Temperatura
Dimensão
Dimensão
Pressão
Dimensão
Força
Pressão
Temperatura
Eletricidade
Rádio
freqüência
Dimensão
Dimensão
Tempo
Dimensão
Força
Pressão
Tempo
Eletricidade
Tempo
Dimensão
Eletricidade
Pressão
Dimensão
Eletricidade
Tempo
Fonte| CQ Qualidade, Maio 1997, p. 42
Apostila\Metrologia
ApD-RedeCalibração.doc
26 MAI 97 (Substitui 11 MAI 96)
180
D. Fundamentos da Qualidade
Objetivos de Ensino
1. Apresentar a história da qualidade.
2. Conceituar qualidade e listar sua terminologia, características e aspectos.
3. Mostrar as três filosofias básicas de qualidade, segundo Deming, Crosby e Juran
1. História da Qualidade
1.1. Primórdios
As técnicas de qualidade são usadas desde
os tempos antigos. Há quatro mil anos atrás, os
egípcios mediam as pedras que usavam nas
suas pirâmides. Os gregos e romanos mediam
os edifícios e aquedutos para garantir que eles
estavam de conformidade com as
especificações. As estruturas e arquiteturas
dos romanos para edifícios, igrejas, pontes,
estradas até hoje causam admiração e
inspiração.
Durante a Idade Média até os anos 1900, a
produção de bens e serviços era confinada a
indivíduos isolados ou grupos pequenos de
indivíduos. A qualidade era determinada e
controlada pelo próprio indivíduo ou pelo grupo.
Este período foi chamado de Controle de
Qualidade do Trabalhador Os artesões
especificavam, mediam, controlavam e
garantiam a qualidade das tintas, roupas,
tapeçaria, esculturas e arquiteturas. Para
garantir a uniformidade, os estudantes e
aprendizes cumpriam rigorosos programas de
treinamento e acompanhamento dos mestres.
O volume da produção era pequeno. O autor
do trabalho se orgulhava dele e esta motivação
garantia a qualidade.
1.2. Qualidade Moderna
Segundo Feingenbaum, a função qualidade
nas organizações modernas, a partir de 1900
evoluiu através dos seguintes estágios:
1. supervisor
2. inspeção
3. controle de qualidade
4. garantia da qualidade
5. gerenciamento da qualidade total
Supervisor
Entre 1900 e 1920, tem-se o período
chamado de Controle de Qualidade do
Supervisor A Revolução Industrial gerou a
produção em massa. O resultado foi o
especialista. O indivíduo não era mais
responsável pelo produto inteiro, mas somente
de uma porção ou parte do produto. A
desvantagem deste enfoque é a perda do
senso de acompanhamento e identificação do
trabalhador com o seu produto. Nesta
configuração apareceu a figura do supervisor,
que é responsável pela coordenação das
diferentes tarefas e operações. O supervisor
que dirigia a operação se tornou o responsável
pela qualidade do produto final.
Inspeção
A qualidade moderna começou na década
de 1920. O período de 1920 e 1940 foi
chamado de Controle de Qualidade por
Inspeção. O volume de produção aumentou,
com um grande salto. Os produtos e os
processos se tornaram mais complicados.
Como o número de trabalhadores se
reportando ao supervisor se tornou muito
grande, ficou impossível o supervisor controlar
rigorosamente as operações individuais de
cada trabalhador. Os inspetores verificavam a
qualidade do produto após determinadas
operações e no final. Havia padrões para
serem comparados com os produtos. Quando
haviam discrepâncias entre o padrão e o item
do produto, os itens eram separados. Os itens
não-conformes podiam ser retrabalhados e
quando isso não fosse possível, rejeitados.
Os primeiros grupos de qualidade eram os
departamentos de inspeção. Durante a
produção, os inspetores mediam os produtos
contra especificações. Os departamentos de
inspeção não eram independentes; eles
geralmente se reportavam ao departamento de
fabricação cujos esforços eles inspecionavam.
Isso apresentava um conflito de interesses,
pois o departamento de inspeção rejeitava uma
batelada de produtos não-conformes e o
departamento de fabricação queria aproveitar
essa batelada de produtos para venda,
independente da qualidade. Havia o conflito
entre as mensagens de "produção a qualquer
custo" e "qualidade é o mais importante". Neste
ambiente, a qualidade do produto melhorava
muito lentamente.
181
Fundamentos da Qualidade
Durante este período, foram desenvolvidos
os fundamentos estatísticos da qualidade e a
Bell Telephone Laboratories montou uma
equipe de pioneiros do estudo da qualidade,
como Walter A. Stewhart (controle estatístico
de processo), H. G. Romig e H.F. Dodge
(planos de amostragem).
Controle da qualidade
No período de 1940 a 1960, a fase da
evolução é chamada de Controle Estatístico da
Qualidade. Nesta etapa, os grupos de inspeção
evoluíram para os departamentos de Controle
da Qualidade (QC). O início da Segunda
Guerra Mundial requereu produtos militares
sem defeitos. A qualidade do produto era
crucial para ganhar a guerra e isso somente
seria garantido se o departamento de inspeção
pudesse controlar os processos de produção. A
inspeção de 100%, geralmente impraticável, foi
substituída pelos planos de amostragem, que
foram aceitos e estudados. Em 1946, formouse a American Society for Quality Control
(ASQC). Em 1950, foi desenvolvida a série de
normas MIL-STD-105, associada à qualidade.
Qualidade, definida como conformidade
com a especificação, era controlada durante a
produção, em vez de ser inspecionada nos
produtos. A responsabilidade pela qualidade foi
transferida para um departamento
independente (QC), que era agora considerado
o guardião da qualidade. O departamento QC
era separado da fabricação, para ter autonomia
e independência.
Embora as condições fossem idéias para se
explorar os benefícios do controle estatístico da
qualidade, as indústrias americanas se
mostraram preguiçosas e pouco interessadas
com estas teorias relacionadas com qualidade.
Foi o Japão, totalmente destruído pela guerra,
que adotou rigorosamente os planos de
controle de qualidade e se submeteu a
programas intensivos de treinamento e
educação. Foram para o Japão, como
consultores e professores, os americanos W.
Edwards Deming (1950) e Joseph M. Juran
(1954).
Garantia da Qualidade
Na década de 1960, o controle da qualidade
evoluiu para Garantia da Qualidade (QA quality assurance). O departamento de garantia
da qualidade assegurava a qualidade do
processo e do produto através de auditorias
operacionais, treinamentos, análises técnicas.
Os consultores de QA atuavam nos
departamentos onde realmente estava a
responsabilidade pela qualidade. O QA é uma
área funcional responsável pela inspeção dos
produtos, calibração dos instrumentos, teste
dos produtos e inspeção da matéria prima.
Neste período surgiu o conceito de Defeito
Zero (ZD - zero defect), que se baseava na
obtenção de produtividade através do
envolvimento do trabalhador. Esse conceito era
adequado para a NASA (National Aeronautics
and Space Administration) em lançamento de
foguetes e satélites.
No Japão, surgiu o conceito de círculos de
controle de qualidade, baseado no estilo
participativo do gerenciamento. Este princípio
assume que a produtividade irá aumentar
através de um moral elevado e motivação, que
são obtidos através de consulta e discussão
em grupos informais.
Gerenciamento da Qualidade Total
Na década de 1970, quando o assunto
qualidade se tornou mais crítico, QA evolui
para o Gerenciamento da Qualidade Total
(TQM - total quality management) ou o
gerenciamento da qualidade em toda a
companhia (CWQM - company-wide quality
management).Os grupos de qualidade da
companhia são menores, com mais autoridade
e menor responsabilidade direta pela
qualidade. Por exemplo, o grupo de qualidade
tem autoridade para impedir a saída de um
produto defeituoso da porta da fábrica,
enquanto a responsabilidade do controle de
qualidade atua no operador do departamento
de fabricação.
A qualidade está associada com cada
indivíduo. O programa de qualidade total
envolve toda a organização, desenvolvendo e
implantando uma ética e cultura de qualidade.
O foco do programa é toda a companhia,
orientado para o usuário e realizado
competitivamente.
A qualidade não fica apenas em um
departamento. Para fabricar um produto com
qualidade ou entregar um serviço com
qualidade requer a atenção e envolvimento de
todos da organização. É responsabilidade da
pessoa que faz diretamente o trabalho, da
recepcionista que atende alegremente as
pessoas, da telefonista que se comunica com o
mundo externo, do gerente que supervisiona os
empregados, do instrumentista que mantém os
instrumentos em operação, do responsável
pela embalagem do produto. Cada elemento da
organização, desde o comitê executivo que
estabelece a política de qualidade até a
recepcionista na portaria da firma, contribui
para o êxito ou boicote do esforço da
qualidade. O comitê executivo define uma
política realística, os gerentes estabelecem
objetivos atingíveis, os engenheiros projetam
produtos funcionais, confiáveis e atraentes, as
recepcionistas são gentis e eficientes e os
operadores fabricam um produto sem defeitos.
182
Fundamentos da Qualidade
A orientação para o cliente final é essencial,
pois suas necessidades mudam e a
organização deve detectar essas variações e
se adaptar para atendê-las. Adaptar significa
projetar produtos estéticos, fabricar produtos
sem defeitos, entregar os produtos em tempo e
com lucro. Uma organização deve projetar e
produzir e entregar o que o cliente quer e não o
que a organização pensa que o cliente quer.
2. Conceito de Qualidade
A noção de qualidade pode ser dividida em
cinco categorias:
1. transcendental,
2. baseada no produto,
3. baseado no usuário,
4. baseada na fabricação e
5. baseada no valor.
Ainda foram identificados oito atributos na
definição da qualidade:
1. desempenho,
2. características,
3. confiabilidade,
4. conformidade,
5. durabilidade,
6. utilidade,
7. estética e
8. percepção da qualidade.
O termo qualidade pode ser definido de
vários modos, dependendo do enfoque e
perspectiva do usuário. Qualidade é:
1. conformidade com especificações e normas
aplicáveis (Crosby)
2. adequação (fitness) ao uso (Juran)
3. satisfação das vontades, necessidades e
expectativas do comprador a um custo
competitivo
4. adequação do produto ou serviço ao seu
uso pretendido como requerido pelo
usuário.
2.1. Conformidade
Toda organização, se lucrativa ou sem fins
lucrativos, de fabricação, serviços, privada ou
pública, tem especificações e normas, que são
elaboradas por organizações para medir o
desempenho e corrigir os desvios dos níveis
esperados. Por exemplo, em uma operação de
fabricação, as especificações detalham limites
dimensionais, atributos físicos de uma
característica da qualidade de uma peça. Em
uma operação de serviço, as normas
estabelecem os métodos aprovados de
comportamento ou serviço.
2.2. Adequação ao uso
A associação da qualidade com a
adequação ao uso é de Joseph Juran. É uma
definição baseada no mercado e no
comprador. Um produto ou serviço é adequado
para uso se ele satisfaz as necessidades e
exigências do comprador.
É possível se ter um produto que esteja de
conformidade com o uso em termos de
satisfação do comprador mas não se conforme
com a especificação. A especificação de
acabamento de superfície foi desenvolvida
para um produto de consumo. A condição do
acabamento da superfície é importante porque
ela melhora a aparência do produto e sua
facilidade de venda. As especificações foram
escritas para todas as superfícies, internas e
externas. Porém, se a superfície interna do
produto não está de conformidade com a
norma e como ela não pode ser vista pelo
comprador, ela não influencia negativamente
na sua decisão de compra e portanto a nãoconformidade é aceita. Assim, um produto com
uma imperfeição pode ser adequado ao uso se
tal imperfeição não afeta seu desempenho,
segurança ou atração para a venda.
2.3. Satisfação do comprador a um
preço competitivo
A qualidade do produto ou serviço é a
habilidade do produtor ou prestador de serviço
satisfazer as necessidades do comprador,
ainda sendo capaz de ter lucro. Esta definição
envolve os dois lados da questão: o fornecedor
e o comprador. O comprador é a razão da
existência da organização, mas o fabricante ou
o fornecedor do serviço deve ter o seu lucro.
Muitos clientes não compram um produto ou
serviço, a não ser que ele tenham um preço
razoável.
3. Características da Qualidade
Pode haver um ou mais elementos para
definir o nível de qualidade de um produto ou
serviço. Esses elementos são chamados de
características da qualidade. Estas
características podem ser agrupadas de vários
modos: estrutural, sensorial, tempo e ético.
As características estruturais incluem as
grandezas físicas como comprimento, área,
volume, massa, peso, resistência, viscosidade,
densidade e muitas outras variáveis de
processo incluídas na instrumentação e
controle do processo. As características
sensoriais incluem o gosto de uma comida,
cheiro de um perfume, beleza de um modelo.
As características que dependem do tempo
incluem a garantia, confiabilidade,
183
Fundamentos da Qualidade
mantenabilidade. As características éticas
incluem honestidade, cortesia, amizade.
As características da qualidade podem ser
agrupadas em duas grandes classes: variáveis
e atributos.
3.1. Variável
Variável é a característica que pode ser
medida e expressa por um valor numérico,
unidade e um limite de incerteza. São
exemplos de variáveis:
1. o diâmetro de eixo, como 10,0 ±0,1 mm
2. a massa de um corpo, como 8,5 ±0,2 kg
3. a densidade relativa de um fluido em
relação à agua, como 0,8 (adimensional)
4. a resistência elétrica de uma bobina, como
24 Ω.
5. o volume de um frasco, como 1,0 litro.
3.2. Não-conformidade
Uma não conformidade é uma característica
de qualidade que não satisfaz a especificação
requerida estabelecida. Por exemplo, seja a
espessura nominal de uma arruela de 5,0 ±0,2
mm. Uma arruela com espessura de 5,1 mm é
conforme e boa; uma arruela com 5,3 mm tem
a espessura não-conforme e deve ser
retrabalhada para ficar dentro do especificado.
Uma unidade não-conforme é aquela que
possui uma ou mais não-conformidades, de
modo que a unidade não é capaz de satisfazer
a especificação estabelecida e portanto,
incapaz de funcionar como previsto. Uma peça
com o peso e o comprimento fora das
tolerâncias estabelecidas é uma unidade nãoconforme e como tal, deve ser retrabalhada ou
se isso não for possível, rejeitada e jogada
fora.
3.3. Atributo
Atributo é uma característica de qualidade
se ela só pode ser classificada como conforme
ou não conforme, boa ou ruim, satisfaz ou não
satisfaz, de acordo com uma determinada
especificação.
O atributo é a característica da qualidade
que geralmente não pode ser medida em uma
escala numérica. Por exemplo, o cheiro de um
perfume, a cor de um tecido são atributos, pois
são caracterizados como aceitável ou nãoaceitável.
Às vezes, uma variável pode ser
considerada como atributo. Por exemplo, o
diâmetro de um eixo a ser usado em um
conjunto, é rigorosamente uma variável, com
uma dimensão, unidade e tolerância. O eixo
poderia ser medido por um paquímetro ou
micrômetro e o operador iria classificá-lo como
conforme ou não-conforme. Uma alternativa
mais rápida, seria comparar o diâmetro do eixo
com um padrão ou inserir o eixo em um furo
padrão, de modo que ele seria classificado
rapidamente como conforme ou não-conforme.
A grande vantagem de considerar o indicador
bom ou não-bom é a economia de tempo no
teste.
3.4. Defeito
Defeito está associado com uma
característica de qualidade que não satisfaz a
especificação. A gravidade de um ou mais
defeito em um produto ou serviço pode
determinar se ele é aceitável ou não
(defeituoso). O termo moderno para item
defeituoso é item não-conforme. A definição do
American National Standards Institute (ANSI) e
American Society for Quality Control (ASQC) é
a seguinte (ANSI/ASQC A3, 1987):
Defeito é um afastamento de uma
característica de qualidade de seu nível ou
estado pretendido que ocorre com uma
gravidade suficiente para fazer o produto ou
serviço associado não satisfazer a exigência de
uso pretendida, de modo visível
3.5. Padrão e Especificação
Como a definição de qualidade envolve a
satisfação do usuário, as necessidades do
usuário devem ser documentadas. Uma norma
ou especificação se refere ao estabelecimento
preciso que formaliza as necessidades do
usuário. Eles podem ser referir a produto ou
processo ou serviço. Por exemplo, a
especificação de uma peça pode incluir o
diâmetro interno de 4,0 ±0,1 cm, diâmetro
externo de 10,0 ±0,2 cm, comprimento de
12,0 ± 0,3 cm. Isto significa que uma peça
aceitável deve satisfazer cada uma das
dimensões acima, dentro das tolerâncias
estabelecidas.
Segundo o National Institute of Standards
and Technology (NIST), especificação é um
conjunto de condições e exigências, de
aplicação limitada ou específica, que fornece
uma descrição detalhada do procedimento,
processo, material, produto ou serviço, para
uso principalmente em compra e fabricação.
Normas podem ser referidas ou incluídas em
um especificação.
Norma é um conjunto escrito de condições
e necessidades, de aplicação geral ou restrita,
estabelecida por uma autoridade ou acordo,
para ser satisfeita por um material, produto,
processo, procedimento, convenção, método
de teste; relacionada com características
físicas, funcionais, desempenho ou de
conformidade.
184
Fundamentos da Qualidade
Padrão é a representação física de uma
unidade de medição ou uma receita que define
o método para se obter uma unidade de
medição.
4. Aspectos da Qualidade
Três aspectos são usualmente associados
com a definição de qualidade: qualidade de
projeto, qualidade de conformidade e qualidade
de desempenho.
4.1. Qualidade de Projeto
A qualidade de projeto trata das condições
restringentes que o produto ou serviço deve
possuir, no mínimo, para satisfazer as
necessidades do usuário. Isso implica que o
produto ou serviço deve ser projetado para
satisfazer minimamente as necessidades do
consumidor.
O projeto deve ser o mais simples e o mais
barato e ainda satisfazer as expectativas do
usuário. A qualidade de projeto depende de
fatores como: tipo do produto, custo, política de
lucro, demanda do produto, disponibilidade de
peças e materiais e segurança. Por exemplo,
seja um cabo de aço cujo nível de qualidade
requeira uma resistência para suportar 100
kg/cm2. Quando se projeta tal cabo,
selecionam-se os parâmetros do cabo para ele
suportar, no mínimo, esta tensão. Na prática, o
cabo é superdimensionado, de modo que a que
a condição desejada seja excedida. Assim,
quando se projeta um cabo com 25% além da
especificação, o cabo pode suportar tensão de
125 kg/cm2.
Geralmente, quando se aumenta o nível de
qualidade projetada, o custo sobe de modo
exponencial. Porém, o valor do produto
aumenta de um modo crescente no início e
depois permanece praticamente constante,
além de um determinado nível de qualidade. A
figura mostra as curvas do custo do produto e o
seu valor. Observa-se que abaixo do nível de
qualidade c, o valor é sempre menor que o
custo do produto; além do nível, o custo fica
maior que o valor do produto e ele fica
impraticável. Esta curva serve para escolher o
nível mais conveniente de qualidade de projeto.
1. prevenção de defeito
2. procura de defeito
3. análise do defeito e conserto.
A prevenção de defeito significa evitar a
ocorrência de defeitos e é usualmente
conseguida através de técnicas de controle
estatístico de processo. A procura de defeito é
conduzida através de inspeção, teste e análise
estatística dos dados do processo. Finalmente,
as causas de defeito são investigadas e são
tomadas ações corretivas.
A qualidade de projeto tem um impacto na
qualidade de conformidade. É claro que deve
ser possível produzir o que é projetado. Por
exemplo, se a especificação de projeto para o
comprimento de um pino de aço é 20,0 +- 0,2
mm, deve-se ter um projeto envolvendo
ferramentas, materiais e métodos que produza
o pino com esta especificação. Se o sistema de
produção consegue esta peça com esta
especificação, o produto é fabricado com esta
especificação. Se o processo é capaz de
produzir a peça com especificação de
20,0 ±0,4 mm, a fase do projeto deve ser
revista. Se for possível fabricar pinos somente
com a tolerância de 20,0 ±0,4, a especificação
do produto é alterada. Caso seja mandatória a
especificação de 20,0 ± 0,2 mm, deve-se
alterar a ferramenta ou o método de produção,
certamente com aumento do custo final do
produto. Enfim, deve haver uma constante
interação entre o projeto e a produção de modo
que o projetado possa ser realmente fabricado.
4.3. Qualidade de Desempenho
A qualidade de desempenho está
relacionada com a operação do produto
quando realmente posto para usar ou quando o
serviço foi executado e se mede o grau de
satisfação do consumidor. A qualidade de
desempenho é função da qualidade de projeto
e da qualidade de desempenho. O teste final
do produto é sempre feito pelo consumidor. A
satisfação de suas expectativas é o principal
objetivo. Se um produto não funciona como é
esperado, deve-se fazer ajustes nas fases de
projeto e de conformidade.
4.2. Qualidade de conformidade
A qualidade de conformidade implica que o
produto fabricado ou serviço prestado deve
satisfazer as normas selecionadas na fase de
projeto. Com relação ao setor de fabricação,
esta fase está relacionada com o grau onde a
qualidade deve ser controlada, desde a compra
das matérias primas até a entrega para o
comprador. Esta fase consiste de três etapas:
185
Fundamentos da Qualidade
Quando a qualidade dos bens e serviços
complexos deve ser controlada e garantida,
deve-se implantar um programa de qualidade
total. O objetivo do programa é medir, detectar,
reduzir, eliminar e evitar deficiências na
qualidade. Deficiências podem ser
1. produtos com defeito
2. serviços descorteses
3. entregas demoradas
4. falta de assistência pós-venda
Qualidade
Qualidade de
Conformidade
5.2. Sistema de Qualidade Total
Qualidade
de Projeto
Qualidade de
Desempenho
Fig. 2. Aspectos da qualidade
5. Gerenciamento da Qualidade Total
5.1. Introdução
Em uma economia global, a fabricação de
produtos e a execução de serviços não possui
fronteiras. Uma indústria automobilística pode
ter o gerenciamento na Alemanha, fabricar o
motor no México, montar o carro no Brasil e
vendê-lo e prestar assistência técnica na
Arábia Saudita. Este carro, da concepção,
fabricação e entrega, deve incorporar
qualidade.
Na Europa, a International Standards
Organization (ISO) desenvolveu normas (série
9000) para estabelecer uma linguagem comum
e entendimento dos principais termos e
conceitos na qualidade. Nos Estados Unidos, o
American National Standards Institute (ANSI) é
a organização responsável pela emissão de
normas. As normas ANSI são tecnicamente
equivalentes às normas ISO.
As normas se referem à fabricação de
produtos e execução de serviços, pois estes
parâmetros estão quase sempre associados.
Na maioria dos casos, um fabricante de
produtos é também um entregador de serviços.
Por exemplo, quando se pede uma refeição no
restaurante, a componente serviço da comida é
tão importante quanto a componente produto,
que é a comida em si. O maître toma o pedido
do cliente com todas as especificações da
comida, o cozinheiro faz a comida usando
produtos comprados de diversos fornecedores,
o garçom entrega a comida e serve o cliente,
de modo educado e cuidadoso. O ambiente
deve ser adequado para a conversação, com
música ambiente suave e temperatura
adequada. E a conta deve ser honesta para o
cliente e deve dar lucro ao dono do
restaurante.
Um sistema de qualidade é estabelecido na
estrutura operacional de toda a companhia e
planta, documentado em procedimentos
efetivos e integrados relativos ao
gerenciamento e trabalhos técnicos, para
orientar as ações coordenadas das pessoas,
máquinas e informações da companhia e
planta do modo melhor e mais prático possível
para garantir a satisfação da qualidade do
usuário e custos econômicos da qualidade.
5.3. Malha da Qualidade
Os principais elementos da malha de
qualidade de um programa de gerenciamento
de qualidade total, conforme são os seguintes:
1. Marketing e pesquisa de mercado
2. Projeto, especificação, engenharia e
desenvolvimento do produto
3. Procurement
4. Planejamento e desenvolvimento do
processo
5. Produção
6. Inspeção, teste e exame
7. Embalagem e armazenamento
8. Venda e distribuição
9. Instalação e operação
10. Assistência técnica e manutenção
11. Descarte depois do uso
Marketing e pesquisa de mercado
A responsabilidade do marketing é
identificar o mercado, identificar as
necessidades do cliente, desenvolver uma
descrição resumida do produto e estabelecer
um sistema de controle à realimentação
negativa (feedback).
Um mercado pode ser inteiramente novo, já
estabelecido ou um segmento de um mercado
estabelecido. Pode-se desenvolver um produto
totalmente novo para um mercado novo. Este
produto tem um preço normalmente muito
elevado, para recuperar alguns custos de
desenvolvimento e pesquisa. Esse novo
produto inicialmente não tem competição e de
modo que se alguém quiser comprá-lo, deve
pagar o seu alto preço.
186
Fundamentos da Qualidade
Para um mercado estabelecido, pode-se ter
uma versão melhorada do produto existente
com preço equivalente, ou um produto similar
com preço mais baixo. Pode-se também
desenvolver um produto especializado para um
segmento de um mercado estabelecido. Esse
produto satisfaz as necessidades de um
segmento específico do mercado alvo.
O marketing também identifica as
necessidades, vontades e expectativas de
produtos e serviços. Quase todo produto tem
um componente serviço associado, que é tão
importante quanto o componente produto. Por
exemplo, quem compra um microcomputador
IBM compra também o serviço que está
associado com o nome IBM.
Assim que as necessidades do usuário são
identificadas, elas são comunicadas à
organização em termos de um conjunto de
necessidades resumidas em uma
especificação do produto. As necessidades do
cliente se transformam gradualmente em
especificações do produto e do serviço, como
características de desempenho, estética,
embalagem, preço, exigências legais.
Finalmente, o marketing estabelece uma
informação, monitoração e sistema de
realimentação negativa. As necessidades do
usuário se alteram e uma organização deve
continuamente se acomodar a essas
alterações através do ciclo de vida do produto.
Se não houver esta adaptação, os produtos e
serviços irão envelhecer e não mais irão
satisfazer as necessidades do usuário.
A maioria dos produtos segue um ciclo de
vida consistindo de quatro estágios: introdução,
crescimento, maturidade e declínio. Esses
quatro estágios mostram o perfil de vendas de
um produto. Quando um produto é introduzido
no mercado, as vendas podem ser baixas por
que as pessoas ainda não conhecem o produto
ou não conhecem os benefícios resultantes de
seu uso ou o produto pode ter um preço muito
alto. Em seu estágio de crescimento, através
da propaganda, as pessoas tomam
conhecimento de seus benefícios potenciais ou
de sua habilidade de satisfazer suas
necessidades. As vendas crescem. No estágio
de maturidade, os competidores desenvolvem
produtos melhores com mesmo preço ou
produtos com igual desempenho mas com
preço menor. As vendas permanecem estáveis.
Finalmente, no estágio de declínio, a
competição força a organização desenvolver
novos produtos ou abaixar o preço do produto
existente. De qualquer modo, as vendas caem.
Projeto, especificação, engenharia e
desenvolvimento do produto
A engenharia usando o resumo do produto,
transforma as necessidades do usuário em
especificações técnicas para materiais,
produtos e processos. No desenvolvimento do
produto, são considerados os seguintes
parâmetros: necessidades do usuário, custo,
facilidade de fabricação e de teste e qualidade
do projeto.
A engenharia primeiro desenvolve uma ideia
e o conhecimento do que o usuário quer ou
espera. Geralmente, as necessidades,
vontades e expectativas do usuário são vagas
e a engenharia somente tem uma ideia
abstrata do mercado. O marketing deve obter
informações dos grupos enfocados,
amostragens, pesquisas e outras fontes. O
marketing acredita que a organização pode
desenvolver um produto ou serviço para
satisfazer estas exigências. A engenharia
então determina se é possível desenvolver o
produto dentro do tempo e orçamento
estabelecidos.
Mesmo durante as considerações da
satisfação do cliente, os custos do produto e
sua entrada são sempre considerados. Se um
produto tem um alto preço e uma imagem de
qualidade, ele vende pouco, o mercado é rico
mas não é um mercado de massa.
Às vezes, o engenheiro projeta um produto
no terminal do computador e não solicita
informação ou ajuda quanto à sua capacidade
de ser construído. Um produto projetado com
pequenas tolerâncias é, às vezes, impossível
de ser fabricado ou operado. Tolerâncias muito
pequenas ou muito grandes podem resultar em
falhas prematuras, causadas pela interferência
de peças muito encaixadas ou muito folgadas.
A qualidade no projeto é essencial para um
produto final ser livre de defeitos, seguro e
confiável. Projeto ruim causa falha prematura
do produto. Se os erros de projeto não são
corrigidos, eles são repetidos em cada
produtos fabricado. O projeto bom implica em
segurança e saúde. Se uma planta nuclear não
é projetada e construída com a segurança em
mente, um acidente pode liberar radioatividade
na atmosfera, resultando em mortes
(Chernobyl e Three Mile Island).
O projeto também deve considerar a
confiabilidade, o efeito a longo prazo da
qualidade. Produto confiável é aquele que
raramente se estraga. Quando estragado, o
produto deve ser rapidamente consertado. O
instrumento é considerado muito disponível
quando raramente se estraga e é facilmente
consertado.
187
Fundamentos da Qualidade
Matéria prima
Dependendo do produto e da indústria,
muitos fabricantes usam cerca de 70% de seu
material de fornecedores externos. Um produto
final só é de boa qualidade quando os seus
componentes adquiridos forem de boa
qualidade. Assim, a compra e o controle de
compra das matérias primas e peças de
terceiros são fundamentais para a qualidade do
produto final.
Deve-se selecionar e monitorar os
fornecedores. A seleção dos fornecedores é
um processo formal que avalia os fornecedores
quanto à sua habilidade de fabricar um produto
sem defeito, com preço competitivo, entregue
no tempo combinado e com suporte de serviço
adequado. A monitoração dos fornecedores
garante que seus produtos estão de
conformidade com as especificações. A
monitoração inclui auditorias nas dependências
do fornecedor relativas ao seu sistema de
qualidade, teste e melhoria do produto.
Um fabricante é um comprador de seus
fornecedores. O comprador deve comunicar
aos seus fornecedores as suas especificações
detalhadas, com desenhos, ordens de compra
e contratos. As necessidades do usuário
devem incluir:
1. características de qualidade do produto
2. características de serviço
3. ambiente de operação
4. identificações precisas de estética e grau
de qualidade
5. instruções de inspeção
6. especificações do produto
Processo, planejamento e desenvolvimento
Os processos de produção, quer sejam de
inspeção, montagem ou fabricação, devem ser
planejados para que operem corretamente sob
condições controladas. Isto significa que os
equipamentos de fabricação, produção e os
instrumentos de medição são monitorados,
calibrados e controlados conforme programas
elaborados para fabricar produtos sem
defeitos. A variabilidade causada pelos
operadores, materiais, métodos e máquinas é
mantida dentro de limites mínimos exequíveis.
As operações de produção são detalhadas. As
instruções de trabalho e manutenção são
seguidas. O pessoal envolvido é treinado.
Produção
A produção torna realidade o projeto da
engenharia. Os desenhos e especificações são
transformados em produto. Produção é um
termo abrangente que inclui montagem,
fabricação e inspeção em linha.
A responsabilidade pela qualidade fica com
o operador e o supervisor de produção. O
supervisor de produção deve comunicar a
importância da qualidade ao pessoal da linha
de montagem. Deve haver uma dedicação
honesta na perseguição e obtenção da
excelência e uma interminável e contínua
melhoria. Se o programa de qualidade é
apenas retórico ou teórico, o trabalhador da
linha de produção ou o operador do processo
sente a manipulação, rejeita-a e não se
empenhará para que o produto final tenha a
qualidade desejada.
Assim que um processo entra em operação,
ele é controlado manual ou automaticamente
para garantir as características de qualidade e
quantidade do produto, dentro de limites
determinados. Pode-se implantar o controle
estatístico de processo, que engloba as
seguintes idéias básicas:
1. qualidade é a conformidade com as
especificações
2. processos e produtos variam sempre
3. as variações nos processos e produtos
podem ser medidas
4. as variações seguem padrões
identificáveis
5. as variações devidas a causas
assinaláveis distorcem o formato da
distribuição normal
6. as variações são detectadas e
controladas através do controle
estatístico do processo.
O controle estatístico de processo envolve a
comparação da saída de um processo ou
serviço com uma norma ou padrão e a tomada
de ações corretivas em caso de discrepância
entre as duas. O controle estatístico também
envolve a determinação da habilidade de um
processo fabricar um produto que satisfaça as
especificações ou necessidades desejadas.
Inspeção, teste e exame
Inspeção, teste e exame são aplicados a
processos e produtos. O nível de teste
depende do produto, do risco ao consumidor,
risco ao produtor, custo e legislação vigente.
Por exemplo, produtos envolvendo a saúde e
segurança públicas tem riscos associados com
o produtor e o consumidor, se o produto falha.
Este tipo de produto deve ser regulado por leis
governamentais, que incluem testes e
inspeção. Por exemplo, produtos alimentícios e
farmacêuticos possuem legislação federal
específica, que estabelece testes, fabricação e
distribuição.
A qualidade do produto é somente tão exata
quanto os instrumentos de medição usados
para verificar sua qualidade. Isto implica que
qualquer instrumento de medição deve ser
exato e preciso para fornecer o gerenciamento
com suficiente confiança nas decisões e ações
188
Fundamentos da Qualidade
baseadas nas medições. Indicadores locais,
instrumentos e equipamentos de teste
automático devem ser escolhidos para
satisfazer ou exceder as exigências do usuário.
Todo instrumento de medição deve ser
calibrado ou aferido em intervalos regulares,
com padrões apropriados. Todo padrão, em
qualquer nível hierárquico deve ser calibrado
ou aferido também em intervalos regulares, nas
próprias dependências ou em laboratórios
externos.
A qualidade do produto pode ser verificada
através da entrada, em linha com o processo
ou através da inspeção final. A matéria prima
examinada quando chega. O controle
estatístico do processo é usado para controlar
o desempenho em linha do processo. A
inspeção final ocorre antes que o produto é
enviado para a estocagem ou para o usuário.
O grau e a frequência da inspeção depende
da importância da característica da qualidade e
da capacidade do processo. Se a qualidade de
um produto é essencial ao desempenho do
produto, então o produto pode ser 100%
inspecionado.
Embalagem e armazenamento
A qualidade somente pode ser mantida se
os produtos são embalados, armazenados,
manipulados e transportados adequadamente.
A embalagem adequada protege o conteúdo
contra perigos devidos a vibração, choque
mecânico, calor, abrasão e corrosão. Alguns
produtos requerem cuidados especiais no
armazenamento, manipulação e embalagem.
Por exemplo, circuitos eletrônicos integrados
devem ser embalados em sacos envelopes
antiestáticos; produtos alimentícios perecíveis
devem ser transportados em containers
refrigerados; equipamentos que entram em
contato direto com oxigênio, cloro ou outro
oxidante forte deve ser isento de pó e óleo.
manuais detalhados e claros, que descrevem a
instalação e operação seguras. A
documentação de instalação e operação inclui
instruções de montagem, reparo, instalação e
operação, lista de peças de reposição e
informação de serviço do produto.
Assistência técnica e manutenção
Assim que o produto é vendido, o
comprador de um produto técnico ou complexo
poderia requerer assistência técnica para
manter sua operação. Assistência técnica pode
se resumir em responder perguntas por
telefone. Serviço pós-venda de equipamento
complexo pode significar o envio de um técnico
especializado para reparar, substituir, manter
ou modificar uma peça sofisticada do
equipamento. A assistência técnica pós-venda
cria lealdade ao produto ou à marca, que gera
novas vendas.
Jogada fora depois do uso
Após o uso, um produto descartável deve
ser jogado fora de modo adequado e seguro.
Se o produto não tem mais vida útil, ele deve
ser jogado fora. Porém, um produto pode ter
sua vida estendida, quando reparável. Se ele
deve ser jogado fora, isso deve ser feito de
modo a não prejudicar a segurança, saúde ou
ambiente. Por exemplo, a legislação cuida e
regula o lixo de produtos químicos tóxicos.
Depois que um produto sai da malha de
qualidade, a malha recomeça com um outro
produto, novo ou melhorado. Há muito poucos
produtos ou serviços que não seguem a malha
da qualidade, por que os produtos devem se
adaptar às variações do mercado ou
desaparecer.
Vendas e distribuição
Assim que o produto é vendido, ele deve ser
entregue ao comprador em estado intacto, no
prazo combinado e de modo cortês. Se o
produto é danificado durante o transporte, o
problema deve ser tratado efetiva e
eficientemente com o comprador. Se o pessoal
de entrega é mal educado, cria-se uma má
impressão do produto, mesmo antes de ser
usado. É importante monitorar e corrigir essa
situação porque ela afeta as vendas futuras.
Instalação e operação
Produtos industriais complexos podem
requerer ferramentas, equipamentos, métodos
especializados ou pessoal treinado para a sua
instalação e operação. Em um mínimo, as
máquinas e produtos complexos devem ter
189
Fundamentos da Qualidade
Máquina
Operador
Material
Métodos
Ambiente
Custo adicionado
Valor adicionado
Processo
Inspeção
Consumidor
Produto retrabalhado
Custo adicionado
Produto descartado
Custo adicionado
Modo detecção – inspeção
Valor adicionado
Máquina
Operador
Material
Métodos
Ambiente
Consumidor
satisfeito
Processo
Medição
Ajustes
Modo prevenção – controle de processo
Fig. 6. Comparação entre operações de inspeção e prevenção
Marketing e pesquisa de mercado
Jogado fora depois do uso
Engenharia do projeto e
especificação do produto
Assistência técnica e
manutenção
Compra de matéria prima
e peças constituintes
Instalação e operação
Planejamento e desenvolvimento
do processo
Venda e distribuição
Produção
Embalagem e armazenamento
Inspeção, teste e exame
ig. 4. Malha típica de qualidade, conforme ANSI/ASQC Norma Q94: Quality Management and
Quaality System Elements – Guide lines.
190
Fundamentos da Qualidade
6. Inspeção e Prevenção
6.1. Inspeção
A prevenção de defeitos, não
conformidades, falhas e imperfeições é a
filosofia básica do programa de qualidade. A
prevenção diminui os defeitos, melhora os
processos e eventualmente diminui os custos.
Os conceitos de inspeção e prevenção são
diferentes.
As entradas são as mesmas nos processos
de inspeção e prevenção: máquina, operador,
material, método e ambiente. Cada uma
dessas entradas é uma causa potencial de
dispersão ou variação das características do
produto. As operações de fabricação ou
montagem processam as entradas,
adicionando valor em cada passo operacional.
Um processo pode ter de um até 100
passos. No final do primeiro passo ou no
centésimo passo, um operador pode
inspecionar ou testar o produto para verificar
sua conformidade com a especificação. Se
aceitável, o produto é embalado e enviado para
o comprador. Se rejeitado, o produto é jogado
fora ou enviado de volta para o processo para
retrabalho. Pelo tempo que o produto é
processado, adiciona-se valor ao produto em
termos de trabalho direto, matérias primas,
equipamento e treinamento. Neste ponto, se
um produto é jogado fora ou retrabalhado,
perde-se valor.
nem sempre isso é garantido. Os instrumentos
de medição podem ser de má qualidade
(imprecisos) ou descalibrados (inexatos). Mais
ainda, os instrumentos podem estar podem
estar mal aplicados, abusados, ultrapassados e
estragados.
Assim como o produto de um processo de
fabricação pode variar durante um período de
tempo, a saída de um instrumento complexo de
medição pode variar com o tempo. O controle
da qualidade é responsável pela seleção do
instrumento apropriado e pela manutenção de
sua exatidão. A exatidão é estabelecida e
mantida através de um programa sistemático
de calibração periódica, armazenamento
seguro e manuseio correto.
A medição exata requer:
1. unidades de medição do SI
2. seleção do instrumento de exatidão
necessária
3. calibração dos instrumentos após abuso,
queda, defeito
4. calibração periódica dos instrumentos
5. calibração envolvendo padrões com
exatidão de 4 a 10 vezes melhor que a
do instrumento calibrado
6. programa de aferição e calibração dos
padrões envolvidos (trabalho,
transferência e referência)
7. operação e manutenção feita por
pessoal treinado e motivado.
8. Algumas Filosofias de
Qualidade
6.2. Modo Prevenção
8.1. Introdução
No modo prevenção, as entradas são as
mesmas. Também, o processo pode ter de um
a 100 passos e adiciona-se valor em cada
passo. No modo prevenção, o processo é
controlado. A diferença básica entre inspeção e
prevenção é que durante o processo, o
operador continuamente mede peças e ajusta o
processo se a característica desvia dos limites
calculados. O operador evita que ocorram
defeitos, controlando a saída da operação. O
objetivo é enviar produtos sem defeitos ao
usuário.
Várias pessoas fizeram grandes
contribuições no campo do controle da
qualidade. Aqui serão vistas as contribuições
de três pioneiros que tiveram um papel
fundamental na adoção e integração da
garantia e do controle da qualidade na
indústria, através de seus ensinamentos,
artigos, livros e consultorias. Estes pioneiros
são W. Edwards Deming, Philip B. Crosby e
Joseph M. Juran Todas as filosofias centram a
qualidade no gerenciamento e no seu
comprometimento com o programa da
qualidade.
7. Medição
A qualidade é somente tão boa quanto o
instrumento de medição.
A medição é importante por que a qualidade
das decisões de gerenciamento subsequentes
é somente tão confiável quanto os dados
obtidos através dos instrumentos de medição.
Muitas análises de qualidade assumem que os
dados da medição são exatos e precisos, mas
8.2. W. Edwards Deming e sua
filosofia
W. E. Deming foi um consultor que se
tornou famoso com o trabalho de qualidade
feito no mundo industrial japonês, a partir do
término da Segunda Grande Guerra. Ele era
matemático e físico, com PhD. da Universidade
de Yale, em 1928. Ele tinha um grande
191
Fundamentos da Qualidade
conhecimento de estatística que ele aplicou no
controle de qualidade.
Em 1950 ele foi convidado pela União de
Cientistas e Engenheiros Japoneses (JUSE)
para ir ao Japão. Até esta data o Japão tinha
uma reputação ruim em qualidade e estava
falido depois da guerra. Mesmo com estas
condições iniciais adversas, Deming conseguiu
desenvolver e inocular produtos japoneses com
qualidade. Durante os últimos 40 anos o
produto japonês passou a ser sinônimo de
qualidade. O Japão passou a fabricar relógios
melhores que os suíços, máquinas fotográficas
melhores que as japonesas, equipamentos
eletrônicos melhores que os americanos,
navios melhores que os escandinavos. A
melhoria da qualidade não foi repentina, de um
dia para outro, mas foi um processo lento e
contínuo. Até hoje são válidos e aplicados os
princípios de Deming no Japão. O americano
Deming foi agraciado com a Medalha de
Segunda Ordem do Tesouro Sagrado pelo
imperador Hirohito e no Japão existe o Prêmio
Deming para pessoas ou firmas que tenham se
destacado no campo da qualidade. Já foram
ganhadoras do Prêmio Deming firmas como
Toyota, Nissan, Nippon Steel e Hitachi. A
Texas Instruments foi a primeira firma
americana a ganhar este prêmio (1985).
É irônico que o primeiro nome em qualidade
no Japão seja um americano. A verdade é mais
estranha que a versão. As firmas americanas
rejeitaram as idéias de Deming, logo depois da
guerra. Neste período a demanda era muito
grande, a qualidade aceitável. Como tudo que
era produzido era vendido, pouco se fez para
melhorar a qualidade. Não houve uma visão a
longo prazo e nem evolução. Somente depois
que os produtos japoneses substituíam os
produtos americanos, nos Estados Unidos, é
que as indústrias americanas começaram a
adotar a filosofia de controle e garantia de
qualidade. Esta adaptação era o único meio de
sobrevivência - não havia outra alternativa.
Filosofia
A filosofia de Deming enfatiza o
gerenciamento. Quase 85% dos problemas da
indústria podem ser resolvidos apenas por
gerenciamento. Estas tarefas envolvem
mudança no sistema de operação e não são
influenciadas pelos trabalhadores. Os
trabalhadores tem a responsabilidade de
comunicar a informação que eles tem sobre o
sistema para o gerente, de modo que ambos
trabalhem em harmonia. Para Deming a
organização é uma entidade integrada. Deve
haver um planejamento a longo prazo e um
plano de ação a curto prazo. Por exemplo, no
Brasil, só se pensa em ganhos rápidos e
imediatos.
Deming acredita na adoção de programa de
qualidade total e enfatiza a natureza contínua e
interminável do controle da qualidade e na sua
melhoria. Tal programa leva inevitavelmente
para os objetivos estabelecidos, maior
produtividade e menores custos totais a longo
prazo. Ele elimina o erro de se pensar que o
aumento da qualidade também aumenta os
custos e diminui a produtividade. A filosofia de
Deming oferece um plano de ação para se
obter resultados a longo prazo. Ele afirma a
necessidade de se desenvolver uma cultura na
organização onde se abandonam os objetivos
imediatos, como os lucros trimestrais. A
filosofia de qualidade deve ser adotada,
praticada e usada como um meio de vida na
organização. Os princípios devem ser
reaprendidos e refinados baseando-se na
experiência acumulada de cada firma. No
centro da filosofia está a necessidade de os
gerentes e trabalhadores falarem a mesma
linguagem e a linguagem sugerida pelo
matemático Deming é a estatística. A filosofia
Deming só produz resultados notáveis quando
todo o pessoal envolvido com o processo
entende os princípios fundamentais de
estatística para usar no controle e melhoria do
processo. Assim, as idéias fundamentais
tratam do entendimento e uso de ferramentas
estatísticas e uma mudança na atitude de
gerenciamento Os 14 pontos de Deming
fornecem uma referência para a ação aos
gerentes e um caminho a ser seguido para ser
competitivo por muito tempo.
Enfim, quando ele aponta para a lua, ele
olha a lua e não a ponta do dedo!
14 pontos de Deming
O foco da filosofia de Deming está no
gerenciamento. Para Deming, o gerente não
pode fugir da responsabilidade e tentar culpar
os outros. Embora uma minoria dos problemas
sejam devidos aos fornecedores ou
trabalhadores, a maioria dos problemas é
devida ao gerenciamento. Deve-se alterar
fundamentalmente o estilo de gerenciamento e
a cultura da empresa.
Na filosofia de Deming a gerência deve criar
um ambiente de segurança para os
trabalhadores sentirem orgulho de seu trabalho
e serem recompensados de acordo. Os
gerentes e trabalhadores devem trabalhar
juntos, como uma equipe, para lidar com os
fornecedores e investidores. A cultura da
organização deve remover o medo do sistema
de modo que os trabalhadores possam se
sentir confortáveis em recomendar alterações
192
Fundamentos da Qualidade
do produto ou do processo. Deve haver
confiança entre empregados e gerentes.
Os 14 pontos de Deming fornecem o
sentido da direção. Os métodos de Deming
incorporam ferramentas estatísticas. A adoção
destes princípios garantem e sustentam a
produtividade e competição da companhia por
muito tempo.
1. Crie e publique para todos os
empregados a declaração dos
objetivos e propósitos da companhia.
O gerenciamento deve demonstrar
constantemente a responsabilidade
de seguir esta declaração.
2. Aprenda a nova filosofia, a alta
gerência e todo mundo.
3. Entenda o objetivo da inspeção para
a melhoria dos processos e redução
dos custos.
4. Acabe com a prática de considerar o
negócio somente na base do preço
final.
5. Melhore constantemente e pelo futuro
todo o sistema de produção e
serviços.
6. Institucionalize o treinamento
7. Ensine e institucionalize a liderança.
8. Elimine o medo. Crie confiança. Crie
um clima de inovação.
9. Otimize através dos objetivos e
propósitos da companhia os esforços
da equipe, grupos e pessoal técnico.
10. Elimine os exageros para a força de
trabalho.
11. Elimine as cotas numéricas para a
produção. Em vez disso, entenda e
institua métodos para a melhoria.
Elimine o gerenciamento por
objetivos. Em vez disso, entenda as
capacidades do processo e como
melhorá-las.
12. Remova as barreiras que tiram o
orgulho da mão de obra das pessoas.
13. Encoraje a educação e a
competência de todos.
14. Aja para acompanhar a
transformação
8.3. Philip B. Crosby e sua filosofia
Philip B. Crosby trabalhou 14 anos na ITT
como responsável pelas operações de
qualidade da companhia em todo o mundo e
atualmente é o presidente da Philip Crosby
Associates (1979).
O enfoque Crosby começa com uma
avaliação do sistema de qualidade existente.
Sua grade de gerenciamento da qualidade
fornece um método de identificar onde está a
operação de qualidade existente e aponta as
operações que podem ser melhoradas. Esta
grade é dividida em cinco estágios de
maturidade:
1. incerteza (uncertainty)
2. despertar (awakening)
3. conhecimento (enlightenment)
4. julgamento (wisdom)
5. certeza (certainty)
Há seis categorias de gerenciamento que
ajudam na avaliação do processo:
1. entendimento e atitude do gerenciamento
2. status da qualidade da organização
3. manipulação do problema
4. custo da qualidade como % de vendas
5. ações para a melhoria da qualidade
6. sumário da postura de qualidade da
companhia.
4 premissas do gerenciamento da qualidade
Para entender o significado de qualidade,
Crosby identificou quatro premissas do
gerenciamento da qualidade:
1. Definição de qualidade: qualidade
significa conformidade com
necessidades.
2. Sistema para obtenção da qualidade: o
enfoque racional é a prevenção de
defeitos.
3. Padrão de desempenho: o único padrão
de desempenho é zero defeito.
4. Medição: a medição do desempenho é o
custo da qualidade, que inclui refugo,
retrabalho, serviço, inspeção e teste.
14 passos para a melhoria da qualidade
Crosby também tem o número cabalístico
de 14 passos para a melhoria da qualidade.
1. Comprometimento da gerência
2. Equipe de melhoria da qualidade
3. Medição da qualidade
4. Avaliação do custo da qualidade
5. Despertar da qualidade
6. Ação corretiva
7. Ad hoc comitê para programa de zero
defeito
8. Treinamento de supervisores
9. Dia do zero defeito
10. Estabelecimento de objetivo
11. Remoção da causa de erro
12. Reconhecimento
13. Seminários de qualidade
14. Faça isso sempre.
8.4. Joseph M. Juran e sua filosofia
O engenheiro e advogado Joseph M. Juran
é o fundador e presidente emérito do Instituto
Juran, que oferece consultoria e treinamento
de gerenciamento em qualidade. Desde 1924
Juran desenvolve uma carreira na indústria
como engenheiro, árbitro e diretor, além de ter
193
Fundamentos da Qualidade
sido administrador do governo e professor
universitário. Possui vários livros sobre
planejamento, controle, gerenciamento e
melhoria da qualidade. Começou a dar cursos
no Japão (1954) e depois repetiu os seminários
durante mais de 30 anos, em mais de 40
países e todos os continentes.
Juran define qualidade como adequação ao
uso. O foco da qualidade é a necessidade do
usuário final. Há várias não-uniformidades em
uma companhia que atrapalham o
desenvolvimento de um processo, como
1. Há funções múltiplas, como marketing,
projeto e desenvolvimento, fabricação e
venda do produto, onde cada função se
julga a mais importante, a única e a
especial.
2. A presença de níveis hierárquicos na
estrutura da organização cria grupos de
pessoas com diferentes
responsabilidades. Estes grupos variam
em formação e tem diferentes conceitos
acerca da qualidade.
3. Há várias linhas de produto que diferem
em mercado, processos de produção,
causando uma perda de unidade.
Juran propõe um modo universal de pensar
qualidade. Este conceito deve ser o mesmo
para todas as funções, níveis de
gerenciamento e ilhas de produto. A qualidade
requer continuamente
1. planejamento
2. controle
3. melhoria.
Planejamento
O planejamento da qualidade inclui:
1. Identificação do cliente, interno e externo.
2. Determinação das necessidades do
cliente.
3. Desenvolvimento das características do
produto que atendam as necessidades
do cliente.
4. Estabelecimento dos objetivos da
qualidade que satisfaçam igualmente às
necessidades dos clientes e
fornecedores, a um custo combinado
mínimo.
5. Desenvolvimento de um processo que
possa fabricar as características
necessárias do produto.
6. Prova da capacidade do processo.
Controle
O controle da qualidade inclui:
1. Escolha das características a serem
controladas
2. Escolha das unidades de medição.
3. Estabelecimento das medições.
4. Estabelecimento das especificações e
padrões.
5. Medição do desempenho real.
6. Interpretação da diferença entre o real
versus o padrão.
7. Eliminação das diferenças.
Melhoria
A melhoria da qualidade envolve:
1. Prova da necessidade da melhoria.
2. Identificação dos projetos específicos
para a melhoria.
3. Organização para conduzir os projetos.
4. Organização dos diagnósticos para
descobrir as causas.
5. Procura das causas.
6. Tomada de ações corretivas.
7. Prova de que as ações corretivas são
efetivas nas condições de operação.
8. Fornecimento de controle para manter os
ganhos.
8.5. Comparação das Três Filosofias
As três filosofias de qualidade de Deming,
Crosby e Juran tem o mesmo objetivo de
desenvolver um sistema integrado de
qualidade total com uma atuação contínua na
melhoria. Há muitas semelhanças e algumas
diferenças entre estes três planos. Como
disseram Lowe e Mazzeo, são três pastores e
uma única religião.
Definição
A definição de Deming trata a qualidade
como uma uniformidade previsível do produto,
conseguida através do controle estatístico do
processo. A qualidade do produto é refletida na
qualidade do processo, que é o seu foco de
atenção. A sua definição não dá muita
importância ao usuário final, como o fazem
Crosby e Juran. Deming inclui o usuário no
conceito de processo estendido.
Crosby define qualidade como
conformidade à necessidade. A necessidade é
formulada em função do usuário. O
desempenho de zero defeito implica em
procurar estar sempre satisfazendo um
conjunto de exigências.
Juran define qualidade como adequação do
produto a um uso estabelecido e incorpora o
usuário. A definição relaciona claramente a
satisfação da necessidades do cliente.
Compromisso da gerência
Todos os três especialistas enfatizam a
importância do comprometimento da alta
gerência no programa de qualidade. Deming
fala da criação de um objetivo permanente e
constante em direção à melhoria da qualidade
e define as tarefas da gerência.
194
Fundamentos da Qualidade
Crosby fala da criação de uma cultura de
qualidade, que só pode ser obtida através do
envolvimento da gerência.
Juran fala do planejamento, controle e
melhoria do processo de qualidade com o
suporte da gerência em todos os níveis.
Assim, em todas as três filosofias, o suporte
da alta gerência é fundamental.
Estratégia
Deming estabelece uma estratégia para a
alta gerência. A gerência deve seguir os
primeiros 13 pontos e deve criar uma estrutura
para promover continuamente esses 13 pontos
em um ciclo interminável de aprimoramento (o
14o ponto cria esta estrutura).
O enfoque de Crosby é estruturado. Seu
segundo ponto sugere a criação das equipes
de melhoria de qualidade.
Juran recomenda a criação de equipes de
pessoas para orientar o processo de melhoria
da qualidade, diagnosticando e resolvendo os
eventuais problemas.
Medição
Os três especialistas consideram a
qualidade uma entidade possível de ser
medida, assumindo diferentes graus. Às vezes,
se quer saber os efeitos da boa qualidade em
dinheiro, em economia, em aumento de
produtividade. Um objetivo fundamental da
estratégia de qualidade é eliminar refugos e
retrabalho, que irá reduzir o custo da produção
e aumentar a produtividade. O custo total da
qualidade pode medido dividindo-se a
qualidade em itens como prevenção, avaliação,
falha interna e externa. É mais difícil medir o
custo da não-qualidade ou o prejuízo
provocado pela não-satisfação do cliente.
Crosby dizia que a qualidade é grátis, é a nãoqualidade que custa.
Processo interminável
Todas as três filosofias de Deming, Crosby
e Juran acreditam em um processo sem fim de
melhoria da qualidade. Os 14 pontos de
Deming são repetitivos em relação à melhoria
da qualidade e há o ciclo PDCA (Plan-DoCheck-Act - planejar, fazer, verificar e agir).
Crosby e Juran recomendam o ciclo contínuo
de planejar, controlar e melhorar a qualidade.
Educação e treinamento
É fundamental para a melhoria da qualidade
a existência de um pessoal que seja treinado
na filosofia e nos aspectos técnicos da
qualidade. Deming se refere ao treinamento em
seu ponto 6, que recomenda o treinamento de
todos os empregados e no ponto 13 que
descreve a necessidade de retreinamento para
se manter sintonizado com as mudanças das
necessidades do cliente, através de alterações
no produto e no processo.
A educação é também citada por Crosby em
seu ponto 8, que enfatiza a necessidade do
desenvolvimento de uma cultura de qualidade
dentro da organização para haver um clima
propício à qualidade.
Juran não fala explicitamente em educação
e treinamento. Porém, estes conceitos estão
implícitos, por causa da necessidade de
diagnosticar os defeitos e determinar as ações
corretivas, só possível com um pessoal com
conhecimento do processo e das relações
causa e efeito do sistema.
Eliminação das causas dos problemas
Deming usa os termos causas especiais e
causas comuns para denominar os problemas
que aparecem devido à ocorrência de algo
imprevisto ou que sejam inerentes ao sistema,
respectivamente. Exemplos de causas
especiais são os problemas devidos à
qualidade inferior de um vendedor nãoqualificado ou uso de uma ferramenta
inadequada. As causas comuns não possuem
razões especiais e podem ser eliminadas com
mudanças no sistema. Exemplos de causas
comuns são a variabilidade natural da máquina
e da capacidade do operador.
Deming e Juran estabelecem que cerca de
85% dos problemas são controláveis pelo
gerenciamento. Assim, ações de
gerenciamento podem eliminar diretamente os
problemas ou podem fornecer a autoridade e
as ferramentas para os trabalhadores
eliminarem os problemas.
O centro da filosofia de Deming é o uso de
técnicas estatísticas para a identificação das
causas especiais e das causas comuns.
Deming atribui as variações fora dos limites de
controle como especiais. Estas variações
podem ser controladas pelo operador e os
operadores devem tomar providências para
eliminá-las. As variações dentro dos limites de
controle são consideradas comuns. Estas
variações são controláveis pelo gerenciamento
e requerem ação da sua parte para serem
removidas.
Juran diz que as causas especiais criam
problemas esporádicos e as causas comuns
criam problemas crônicos. Juran fornece
recomendações detalhadas para identificar os
problemas esporádicos. Por exemplo, os erros
do operador podem ser acidentais, propositais
ou devidos a treinamento inadequado e técnica
imprópria.
Juran e Crosby fornecem especificações
para se obter o desempenho padrão de zero
defeito. Crosby sugere a ação para a remoção
da causa de erro em seu ponto 11.
195
Fundamentos da Qualidade
Estabelecimento de objetivo
Deming diz claramente que se deve evitar
estabelecer objetivos numéricos arbitrários. Ele
acha que objetivos numéricos impedem, em
vez de apressar a implementação de um
sistema de qualidade total. Não se deve
estabelecer objetivos de curto prazo baseados
em níveis de produtividade sem considerar a
qualidade. Deming não vê necessidade de
objetivos de curto prazo pois enfatiza que o
processo de melhoria da qualidade nunca
acaba.
Crosby e Juran recomendam o
estabelecimento de objetivos. O ponto 10 de
Crosby trata do estabelecimento de objetivos,
onde os empregados sob a orientação dos
seus supervisores, devem estabelecer
objetivos mensuráveis mesmo para curto
prazo, de 30 a 90 dias. Juran recomenda um
programa anual de melhoria de qualidade com
objetivos estabelecidos. Ele acredita que tais
objetivos ajudam na medição do sucesso dos
projetados de qualidade aplicados em um dado
ano. Os objetivos devem se basear nas
necessidades dos consumidores. O
desempenho do programa é medido pela
obtenção dos objetivos numéricos estipulados.
Plano estrutural
Os 14 pontos de Deming para a melhoria da
qualidade enfatizam o uso de ferramentas
estatísticas em todos os níveis. Primeiro, se
leva o processo para um estado de controle
estatístico, através de cartas de controle e
depois procura-se melhorar o processo. A
eliminação das causas especiais para levar o
processo para o estado de controle ocorre nos
níveis inferiores da estrutura da organização.
Quando essas causas são removidas e o
processo fica sob controle estatístico, requer a
atenção dos níveis superiores da gerência para
conseguir melhoria adicional. O plano de
Deming é de baixo para cima.
Crosby enfatiza uma mudança na cultura de
gerenciamento. Depois de se implantar a nova
cultura, se propõe um plano para gerenciar a
transição. O se plano é de cima para baixo.
Juran enfatiza a melhoria da qualidade
através de um enfoque projeto-por-projeto.
Apostila\Metrologia. ApA-FundQual.doc
27 MAI 97 (Substitui 27 MAI 96)
196
Referências Bibliográficas
Referências Bibliográficas
01. Almeida, G. Sistema Internacional de Unidades (SI), Lisboa, Platano, 1988.
02. Arnold, K.L., Guia Gerencial para a ISO 9000, Rio de Janeiro, Editora Campus, 1995.
03. Anthony, D.M., Engineering Metrology, Oxford, Pergamon, 1986.
04. AT & T Technologies, Statistical Quality Control Handbook, Charlotte, Delmar, 1984.
05. Banks, J., Principles of Quality Control, New York, John Wiley, 1989.
06. Barney, G.C., Intelligent Instrumentation, 2a. ed., Longon, Prentice Hall, 1988.
07. Benedict, R.P., Fundamentals of Temperature, Pressure and Flow Measurements, 2a. ed., New
York, John Wiley, 1977.
08. Bentley, J.P., Principles of Measurement Systems, 2a. ed., Singapore, Longman, 1983.
09. Berkov, V., Metrologie Industrielle, Moscow, MIR, 1983.
10. Besterfield, D.H., Quality Controle, 4a. ed., Englewood Cliffs, Prentice-Hall, 1994.
11. Cheremisinoff, N.P. & Cheremisinoff, P.N., Unit Conversions and Formulas, Ann Arbor,
Butterworth, 1980.
12. Connell, B., Process Instrumentation Applications Manual, New York, McGraw-Hill, 1996.
13.Coyne, G.S., Laboratory Handbook of Materials, Equipment, & Technique, Englewood Cliffs,
Prentice-Hall, 1992.
14. Cox, D.R., Planning of Experiments, Singapore, John Wiley, 1958.
15. Dally, J.W., Riley, W.F. & McConnell, K.G., Instrumentation for Engineering Measurements, 2a.
ed., Singapore, John Wiley, 1993.
16. Dieck, R.H., Measurement Uncertainty - Methods and Applications, Research Triangle Park, ISA,
1992.
17. Dieter, G.E., Engineering Design, 2a. ed., Singapore, McGraw-Hill, 1991.
18. Doebelin, E.0., Engineering Experimentation, Singapore, McGraw-Hill, 1995.
19. Doebelin, E.0., Measurement systems, 4a. ed., Singapore, McGraw-Hill, 1990.
20. Figliola, R.S. & Beasley, D.E., Theory and Design for Mechanical Measurements, 2a. ed.,
Singapore, John Wiley, 1995.
21. Fleming, M.C. & Nellis, J.G., Essence of Statistics for Business, Hertfordshire, Prentice Hall,
1991.
22. Fluke, Calibration: Philosophy in Pratice, Everett, Fluke, 1994
23. Friesth, E.R., Metrication for Manufacturing, New York, Industrial Press, 1978.
24. Gibbings, J.C., Systematic Experiment, Cambridge, Cambridge University Press, 1986.
25. Grant, E.L. & Leavenworth, R.S., Statistical Quality Control, 6a. ed., Singapore, McGraw-Hill,
1977.
26. Halpern S., Assurance Sciences - Introduction to Quality Control & Reliability, Englewood Cliffs,
Prentice-Hall, 1978.
27. Hamburg, M. & Young, P., Statistical Analysis for Decision Making, 6a. ed., Orlando, Dryden,
1994.
28. Hicks, C.R., Fundamental Concepts in Design of Experiments, 3a. ed., New York, Holt, Rinehart
and Winston, 1982.
29. Hoel, P.G., Elementary Statistics, 4a. ed., Singapore, John Wiley, 1976.
30. Holman, J.P., Experimental Methods for Engineers, 6a. ed., Singapore, McGraw-Hill, 1994.
31 Hutchins, G.B., Introduction to Quality - Control, Assurance and Management, New York,
Macmilan, 1991.
32. Hutchins, G.B., ISO 9000 - Um Guia Completo, São Paulo, Makron, 1994.
33. Jones, B.E., Instrumentation, Measurement, and Feedback, London, McGraw-Hill, 1977.
34. Jones, L.D. & Chin, A.F., Electronic Instruments and Measurements, 2a. ed., Englewood Cliffs,
Prentice-Hall, 1991.
35. Juran, J.M. & Gryna, F.M., Quality Planning and Analysis, 3a. ed., Singapore, McGraw-Hill, 1993.
36. Kalvelagen, E. & Tijms, H.C., Exploring Operations Research & Statistcs , Englewood Cliffs,
Prentice-Hall, 1990.
37. Karim, G.A. & Hamilton, A.B., Metrication, Boston, IHRDC, 1981.
38. Kateman, G.A. & Pijpers, F. W., Quality Control in Analytical Chemistry, New York, John Wiley,
1981.
197
Referências Bibliográficas
39. Kume, H., Metodos Estatisticos para Melhoria da Qualidade, São Paulo, Editora Gente, 1993.
40. MacLean, G.E., Documenting Quality for ISO 9000 and Other Industry Standards, Milwaukee,
ASQC Press, 1993.
41. Mayne, R. & Margolis, S., Introduction to Engineering, New York, McGraw-Hill, 1982.
42. Meloun, M., et alt., Chemometrics for Analytical Chemistry, Chichester, Ellis Horwood, 1992.
43. Mitra, A., Fundamentals of Quality Control and Improvement, New York, Macmilan, 1993.
44. Montgomery, D.C. & Runger, G.C., Applied Statistics and Probability for Engineers, New York,
John Wiley, 1994.
45. Morris, A. S., Principles of Measurement and Instrumentation, Wiltshire, Prentice Hall, 1993.
46. Nachtigal, C.L., Instrumentation & Control, New York, John Wiley, 1990
47. Nakra, B.C. & Chaudhry, K.K., Instrumentation Measurement and Analysis, New Delhi, Tata
McGraw-Hill, 1985.
48. Noltingk, B.E. (editor), Instrumentation - Reference Book, 2a. ed., Surrey, ButterworthsHeinemann, 1995.
49. Ott, E.R. & Schilling, E.G., Process Quality Control, 2a. ed., New York, Mc-Graw-Hill, 1990.
50. Phadke, M.S., Quality Engineering Using Robust Design, Englewood Cliffs, Prentice-Hall, 1989.
51. Pedde, L.D., Foote, W.E. et alt., Metric Manual, Denver, US Government Printing Office, 1978.
52. Pennella, C.R., Managing the Metrology System, Milwaukee, ASQC Quality Press, 1992.
53. Pyzdek, T. & Berger, R.W., Quality Engineering Handbook, New York, Marcel Dekker, 1992.
54. Ray, M.S., Engineering Experimentation, Cambridge, McGraw-Hill, 1992.
55. Rothery, B., ISO 9000, São Paulo, Makron, 1993.
56. Rowbotham, G.E., Engineering and Industrial Graphics Handbook, New York, McGraw-Hill Book,
1982.
57. Santos Jr., M.J. & Irigoyen, E.R.C., Metrologia Dimensional, Porto Alegre, EUFRGS, 1985.
58. Souto, F.C.R., Visão da Normalização, Rio de Janeiro, Qualitymark, 1991.
59. Sydenham, P.H., Measuring Instruments: Tools of Knowledge and Control, London, Peter
Peregrinus, 1979.
60. Taylor, J.R., Quality Control Systems, Singapore, McGraw-Hill, 1989.
61. Taylor, J.R., Error Analysis, 2a ed., Sausalito, University Science Books, 1997.
62. Waeny, J.C., Controle Total da Qualidade Metrológica, São Paulo, Makron, 1992.
198
Referências Bibliográficas
Normas
1. ABNT NBR ISO 8402, Gestão da qualidade e garantia da qualidade - Terminologia, DEZ 1994
2. ABNT NB 9000, Normas de gestão da qualidade e garantia da qualidade - Diretrizes para seleção
e uso, JUN 1990
3. ABNT NB 9000-2, Normas de gestão da qualidade e garantia da qualidade - Parte 2: Diretrizes
gerais para a aplicação das NBR 19001, NBR 19002 e NBR 19003, FEV 1994
4. ABNT NB 9000-3, Normas de gestão da qualidade e garantia da qualidade - Parte 3: Diretrizes
gerais para a aplicação da NBR 19001 ao desenvolvimento, fornecimento e manutenção de
software, NOV 1993.
5. ABNT NB 9000-4, Normas de gestão da qualidade e garantia da qualidade - Parte 4: Guia para
gestão do programa de dependabilidade, NOV 1993
6. ABNT NB ISO 9001 - ISO 9001, Sistemas da qualidade - Modelo para garantia da qualidade em
projetos/desenvolvimento, produção, instalação e assistência técnica, JUN 1990.
7. ABNT NB 9002 - ISO 9002, Sistemas da qualidade - Modelo para garantia da qualidade em
produção, instalação e serviços associados, DEZ 1994.
8. ABNT NBR ISO 9004-2, Gestão da qualidade e elementos do sistema da qualidade - Parte 2:
Diretrizes para serviços, NOV 1993
9. ABNT NBR ISO 9004-3, Gestão da qualidade e elementos do sistema da qualidade - Parte 3:
Diretrizes para materiais processados, FEV 1994
10. ABNT NBR ISO 9004-4, Gestão da qualidade e elementos do sistema da qualidade - Parte 4:
Diretrizes para melhoria da qualidade, NOV 1993
11. ABNT NBR ISO 10011-1, Diretrizes para auditoria de sistemas da qualidade - Parte 1: Auditoria,
JUL 1993
12. ABNT NBR ISO 10011-2, Diretrizes para auditoria de sistemas da qualidade - Parte 2: Critérios
para qualificação de auditores de sistema da qualidade, JUL 1993
13. ABNT NBR ISO 10011-3, Diretrizes para auditoria de sistemas da qualidade - Parte 3: Gestão de
programas de auditoria, JUL 1993
14. ANSI/ASQC M1-1987, American National Standard for Calibration Systems, JUN 1987.
15. ISO 9001, 2a. ed., Quality systems - Model for quality assurance in design, development,
production, installation and servicing, Jul 1994
16. ISO 9004, 1a. ed., Quality management and qality system elements - Part 2: Guidelines for
services, AUG 1991
17. ASTM E 691-79, Conducting na Interlaboratory Test Program to Determine the Precision of Test
Methods, Apr, 1980.
18. NIS 80 - Guide to Expression of Uncertainties in Testing, NAMAS, Sep 1994.
19. NIS 3003 - The Expression of Uncertainty and Confidence in Measurement for Calibrations,
NAMAS, May 1995.
20. ISO Guide 25 - Guide to the Expression of Uncertainty in Measurement
21. Western European Calibration Cooperation, WECC Doc. 19, 1989, Guidelines for the Expression
of the Uncertainty of Measurement in Calibrations.
22. INMETRO, Vocabulário Internacional de Termos Fundamentais e Gerais de Metrologia, Duque de
Caxias, Inmetro, 1995.
Apostilas\Metrologia
(Substitui 27 MAI 96)
BiblioMetro.DOC 19 ABR 01
199

Documentos relacionados