metrologia 7a

270
Metrologia Industrial Fundamentos da Confirmação Metrológica 7 a Edição Marco Antônio Ribeiro

Upload: francisco-miguel-pires-costa

Post on 06-Aug-2015

150 views

Category:

Documents


10 download

TRANSCRIPT

Page 1: Metrologia 7a

Metrologia Industrial

Fundamentos da Confirmação Metrológica

7a Edição

Marco Antônio Ribeiro

Page 2: Metrologia 7a

Metrologia Industrial

Fundamentos da Confirmação Metrológica

7a Edição

Marco Antônio Ribeiro

© 1993, 1994 e 1995, 1996 e 1999, 2004, 2007 © Marco Antonio Ribeiro. Salvador, Outono 2007

Page 3: Metrologia 7a

Dedicado a meus filhos

Cynthia Dias Ribeiro Stela Matumato Ribeiro

Carlos Marcos Patrocínio Ribeiro Marco Aurélio Matos Ribeiro Marco Antonio Ribeiro Filho

Quem pensa claramente e domina a fundo aquilo de que fala, exprime-se claramente e de modo compreensível. Quem se exprime de modo obscuro e pretensioso mostra logo que não entende muito bem o assunto em questão ou então, que tem razão para evitar falar claramente. (Rosa Luxemburg)

Page 4: Metrologia 7a

Prefácio

Não use adjetivos, use números!

A maioria das pessoas ainda pensa que Metrologia se refere apenas à Dimensão e Comprimento e trata de paquímetros, micrômetros, cálibres e similares. Este preconceito deve ser eliminado, pois Metrologia é a Ciência da Medição e se refere à medição de qualquer grandeza física. A importância da Metrologia é evidente, pois ela é uma ferramenta absolutamente essencial para a garantia da qualidade de qualquer produto ou serviço de engenharia.

O presente trabalho foi escrito como suporte de um curso ministrado a engenheiros e técnicos ligados, de algum modo, à medição de alguma grandeza física. Ele enfoca os aspectos técnicos, físicos e matemáticos da medição da grandeza física.

Inicialmente, é apresentado o Sistema Internacional de Unidades (SI), com sua história, características e as regras para a escrita correta de nomes, símbolos, prefixos e múltiplos das unidades das grandezas físicas. Os Algarismos Significativos são conceituados e tratados, para que sejam usados e entendidos corretamente. São vistos os conceitos básicos da Estatística da Medição para tratar corretamente os erros aleatórios, conceituando médias, desvios, distribuições e intervalos de confiança da medição.

As Quantidades Medidas são definidas e classificadas sob diferentes enfoques e são apresentados os conceitos, unidades, formas e padrões das sete quantidades de base, das duas suplementares e das principais derivadas, nas áreas da física, química, eletrônica e instrumentação.

A seguir são vistas os Instrumentos de Medição, onde são apresentados os diferentes métodos de medição, as aplicações da medição na indústria e os diferentes tipos de instrumentos usados nas medições. O desempenho do instrumento é analisado e são apresentadas as especificações típicas e os parâmetros da precisão e da exatidão. Os erros aleatórios, sistemáticos e grosseiros da medição são conceituados e apresentados os meios para eliminar, diminuir ou administrar tais erros, considerando sua fonte de origem.

Finalmente, é analisada a Confirmação Metrológica da medição, onde são definidos os conceitos de calibração e ajuste, os diferentes tipos de padrões, as abrangências das normas e a situação dos laboratórios nacionais (INMETRO) e internacionais.

São apresentados como Apêndices: o Vocabulário de Metrologia (A), comentários sobre as Normas ISO 9000 (C) e a relação dos Laboratórios da Rede Brasileira de Calibração (D) publicada em MAI 97, pela CQ Qualidade, Editora Banas.

O autor ficará mais feliz, se ao fim da leitura do presente trabalho, as pessoas passarem a usar mais números que adjetivos.

O trabalho está continuamente sendo revisto, quando são melhorados os desenhos, editadas figuras melhores, atribuídos os créditos a todas as fotografias usadas.

Sugestões e críticas destrutivas são benvidas, no endereço do autor: Rua Carmen Miranda 52, A 903, CEP 41820-230, Fone (0xx71) 452-3195 e Fax (0xx71) 452-4286, Móvel(071) 9989-9531 e no e-mail: [email protected]

Marco Antônio Ribeiro

Salvador, BA, Outono 200

Page 5: Metrologia 7a

Autor

Marco Antônio Ribeiro nasceu em Araxá, MG, no dia 27 de maio de 1943, às 7:00 horas A.M.. Formou-se pelo Instituto Tecnológico de Aeronáutica (ITA), em Engenharia Eletrônica, em 1969.

Foi professor de Matemática, no Instituto de Matemática da Universidade Federal da Bahia (UFBA) (1974-1975), professor de Eletrônica na Escola Politécnica da UFBA (1976-1977), professor de Instrumentação e Controle de Processo no Centro de Educação Tecnológica da Bahia (CENTEC) (1978-1985) e professor convidado de Instrumentação e Controle de Processo nos cursos da Petrobrás (desde 1978).

Foi gerente regional Norte Nordeste da Foxboro (1973-1986). Já fez vários cursos de especialização em instrumentação e controle na Foxboro Co., em Foxboro, MA, Houston (TX) e na Foxboro Argentina, Buenos Aires.

Possui dezenas de artigos publicados em revistas nacionais e anais de congressos e seminários; ganhador do 2o prêmio Bristol-Babcock, no Congresso do IBP, Salvador, BA, 1979.

Desde agosto de 1987 é diretor da Tek Treinamento & Consultoria Ltda, firma dedicada à instrumentação, controle de processo, medição de vazão, aplicação de instrumentos elétricos em áreas classificadas, Implantação de normas ISO 9000 e integração de sistemas digitais.

Suas características metrológicas são: altura: (1,70 ± 01) m; peso correspondente ã massa de (70 ± 2) kg; cor dos olhos: castanhos (cor subjetiva, não do arco íris)., cor dos cabelos

(sobreviventes): originalmente negros, se tornando brancos; tamanho do pé: 40 (aplicável no Brasil, adimensional).

Gosta de xadrez, corrida, fotografia, música de Beethoven, leitura, trabalho, curtir os filhos e a vida. Corre, todos os dias, cerca de (10 ± 2) km e joga xadrez relâmpago todos os fins de semana. É provavelmente o melhor jogador de xadrez entre os corredores e o melhor corredor entre os jogadores de xadrez (o que não é nenhuma vantagem e nem interessa à Metrologia).

Page 6: Metrologia 7a

Bíblia e Metrologia Levítico, 19 • 35: Não façais nada contra a equidade, nem no juízo, nem na regra, nem no peso, nem

na medida. • 36: Seja justa a balança e justos os pesos; seja justo o alqueire e justa a medida Deuteronômio, 25, Pesos e medidas justas • 13. Não terás na tua bolsa pesos diferentes, um grande e outro pequeno. • 14. Não terás na tua casa duas efas, uma grande e outra pequena. • 15. Terás peso inteiro e justo, terás efa inteira e justa; para que se prolonguem os teus dias na

terra que o Senhor teu Deus te dá. • 16. Porque é abominável ao Senhor teu Deus todo aquele que faz tais coisas, todo aquele que

prática a injustiça. Ezequiel, 45 • 10. Tereis balanças justas, efa justa e bato justo. • 11. A efa e o bato serão duma mesma medida, de maneira que o bato contenha a décima

parte do hômer e a efa a décima parte do hômer; o hômer será a medida padrão. Amós, 8, • 5. Quando passará a lua nova, para vendermos o grão? E o sábado, para expormos o trigo,

diminuindo a medida, e aumentando o preço, e procedendo dolosamente com balanças enganadoras...

Miqueias, 6, • 11. Justificarei ao que tem balanças falsas e uma bolsa cheia de pesos enganosos?

Page 7: Metrologia 7a

i

Conteúdo

1.Sistema Internacional (SI) 1 Objetivos de Ensino 1

1. Sistema de Unidades 1 1.1. Unidades 1 1.2. História 1 1.3. Sistema Internacional (SI) 3 1.4. Política IEEE e SI 5

2. Múltiplos e Submúltiplos 5 Prefixo 5 Símbolo 5 Fator de 10 5 3. Estilo e Escrita do SI 6

3.1. Introdução 6 3.2. Maiúsculas ou Minúsculas 6 3.3. Pontuação 7 3.4. Plural 8 3.5. Agrupamento dos Dígitos 8 3.6. Espaçamentos 9 3.7. Índices 10 3.8. Unidades Compostas 10 3.9. Uso de Prefixo 11 3.10. Ângulo e Temperatura 11 3.11. Modificadores de Símbolos 11

4. Algarismos Significativos 12 4.1. Introdução 12 4.2. Conceito 12 4.3. Algarismo Significativo e o Zero 12 4.4. Notação científica 13 4.5. Algarismo Significativo e a Medição 14 4.6. Algarismo Significativo e o Display 15 4.7. Algarismo Significativo e Calibração 16 4.8. Algarismo Significativo e a Tolerância 16 4.9. Algarismo Significativo e Conversão 17 4.10. Computação matemática 18 4.11. Algarismos e resultados 21

2. Estatística da Medição 23 Objetivos de Ensino 23 1. Estatística Inferencial 23

1.1. Introdução 23 1.2. Conceito 23 1.3. Variabilidade da Quantidade 24

2. População e Amostra 25 3. Tratamento Gráfico 26

3.1. Distribuição de Freqüência 26 3.2. Histograma 28 3.3. Significado metrológico 28

4. Médias 29 4.1. Média Aritmética 29 4.2. Raiz da Soma dos Quadrados 30

5. Desvios 30 5.1. Dispersão ou Variabilidade 30 5.2. Faixa (Range) 30 5.3. Desvio do Valor Médio 31 5.4. Desvio Médio Absoluto 31 5.5. Desvio Padrão da População 31 5.6. Desvio Padrão da Amostra 32 5.7. Fórmulas Simplificadas 32 5.8. Desvios da população e da amostra 32 5.9. Desvio padrão de operações 33 5.10.Coeficiente de variação 33 5.11. Desvio Padrão Das Médias 33 5.12. Variância 34

6. Distribuições dos dados 35 6.1. Introdução 35 6.2. Parâmetros da Distribuição 35 6.3. Tipos de distribuições 35 6.4. Distribuição normal ou de Gauss 36

7. Intervalos Estatísticos 39 7.1. Intervalo com n grande (n > 20) 39 7.2. Intervalo com n pequeno (n < 20) 39 7.3. Intervalo com n pequeno (n < 10) 40 7.4. Intervalo para várias amostras 40

8. Conformidade das Medições 41 8.1. Introdução 41 8.2. Teste Q 41 8.3. Teste do χ2 (qui quadrado) 42 8.4. Teste de Chauvenet 43 8.5. Outros Testes 44 8.6. Conformidade (goodness of fit) 44 8.7. Não-Conformidades 44

Page 8: Metrologia 7a

Metrologia Industrial

ii

3. Quantidades Medidas 45 Objetivos de Ensino 45 1. Quantidade Física 45

1.1. Conceito 45 1.2. Valor da quantidade 45 1.3. Classificação das Quantidades 45 1.4. Faixa das Variáveis 48 1.5. Função Matemática 49

2. Quantidades de Base do SI 50 2.1. Comprimento 51 2.2. Massa 53 2.3. Tempo 56 2.4. Temperatura 58 2.5. Corrente Elétrica 66 2.6. Quantidade de Matéria 67 2.7. Intensidade Luminosa 68 2.8. Quantidades Suplementares 68

4 69 Instrumentos de Medição 69

Objetivos de Ensino 69 1. Medição 70

1.1. Metrologia 70 1.2. Resultado da Medição 70 1.3. Aplicações da Medição 71 1.4. Tipos de Medição 72

2. Instrumentos da Medição 73 2.1. Manual e Automático 73 2.2. Contato e Não-Contato 74 2.3. Alimentação dos Instrumentos 74 2.4. Analógico e Digital 75 2.5. Instrumento Microprocessado 78

3. Sistema de Medição 81 3.1. Conceito 81 3.2. Sensor 82 3.3. Condicionador do Sinal 83 3.4. Apresentação do Sinal 87

4. Desempenho do Instrumento 90 4.1. Introdução 90 4.2. Características do Instrumento 90 4.3. Exatidão 91 4.4. Precisão 92 4.5. Parâmetros da Precisão 93 4.6. Especificação da Precisão 97 4.7. Rangeabilidade 98 4.8. Precisão Necessária 99 4.9. Relação entre padrão e instrumento 100 4.10. Projeto, Produção e Inspeção 105

5. Erros da Medição 106 5.1. Introdução 106 5.2. Tipos de Erros 106 5.3. Erro Absoluto e Relativo 107 5.4. Erro Dinâmico e Estático 107 5.5. Erro Grosseiro 108 5.6. Erro Sistemático 109 5.7. Erro Aleatório 114 5.8. Erro Resultante Final 115

6. Incerteza na Medição 116 6.1. Conceito 116 6.2. Princípios Gerais 116 6.3. Fontes de Incerteza 118 6.4. Estimativa das Incertezas 118 6.4. Incerteza Padrão 118 6.5. Incerteza Padrão Combinada 119 6.6. Incerteza Expandida 119

5. Confirmação Metrológica 121 Objetivos de Ensino 121 1. Confirmação Metrológica 121

1.1. Conceito 121 1.2. Necessidade da confirmação 121 1.3. Terminologia 121 1.4. Calibração e Ajuste 122 1.5. Tipos de calibração 123 1.6. Erros de calibração 126 1.7. Calibração da Malha 126 1.8. Parâmetros da Calibração 127

3. Padrões 133 3.1. Padrões físicos e de receita 133 3.1. Rastreabilidade 134

4. Normas e Especificações 137 4.1. Norma 137 4.2. Especificações 138 4.3. Hierarquia 138 4.4. Tipos de Normas 138 4.5. Abrangência das Normas 138 4.6. Relação Comprador-Vendedor 138 4.7. Organizações de Normas 139 4.8. INMETRO 139

Page 9: Metrologia 7a

Metrologia Industrial

iii

A. Vocabulário de Metrologia 141 1. Grandezas e Unidades 142

1.1. Grandeza (mensurável) 142 1.2. Grandeza medida (Mensurando) 142 1.3. Grandeza de base 142 1.4. Grandeza suplementar 142 1.5. Grandeza derivada 142 1.6. Grandeza, dimensão de uma 142 1.7. Unidade (de medição) 143 1.8. Unidade, símbolo de 143 1.9. Unidade, sistema de 143 1.10. Valor (de uma grandeza) 143 1.11. Valor verdadeiro (de uma grandeza) 143 1.12. Valor verdadeiro convencional (de uma grandeza) 144 1.13. Valor verdadeiro, erro e incerteza 144 1.14. Valor numérico (de uma grandeza) 145

2. Medição 145 2.1. Metrologia 145 2.2. Medição 145 2.3. Princípio de medição 145 2.4. Método de medição 145 2.5. Procedimento de medição 145 2.6. Mensurando (mensurand) 145 2.7. Grandeza de influência 145 2.8. Grandeza de modificação 146 2.9. Sinal de medição (measurement signal) 146 2.10. Ruído (noise) 146

3. Resultado da Medição 146 3.1. Resultado de uma medição 146 3.2. Resultado não corrigido 146 3.3. Resultado corrigido 146 3.4. Erro (da medição) 146 3.5. Erro relativo 147 3.6. Erro aleatório 147 3.7. Erro sistemático 147 3.8. Correção (do erro) 147 3.9. Fator de correção 147 3.10. Incerteza 147 3.11. Incerteza (da medição) 147 3.12. Incerteza padrão 148 3.13. Incerteza padrão combinada 148 3.14. Incerteza expandida 148 3.15. Avaliação Tipo A (de incerteza) 148 3.16. Avaliação Tipo B (de incerteza) 148 3.17. Fator de cobertura 148

4. Instrumento de Medição 149 4.1. Instrumento de medição (measuring instrument) 149 4.2. Medida materializada (material measure) 149 4.3. Transdutor de Medição (measuring transducer) 149 4.4. Transmissor (transmitter) 149 4.5. Cadeia de medição (measuring chain) 149 4.6. Sistema de medição (measuring system) 149 4.7. Indicador (indicator) 149 4.8. Registrador (recorder) 150 4.9. Totalizador (totalizer) 150 4.10. Instrumento analógico (analog instrument) e digital (digital instrument) 150 4.11. Mostrador (display, dial) 150 4.12. Índice (index) 150 4.13. Escala (scale) 151 4.14. Escala com zero suprimido (supressed zero scale) 151 4.15. Escala com zero elevado (elevated zero scale) 151 4.16. Escala expandida (expanded scale) 151 4.17. Sensor (sensor) 151 4.18. Faixa de indicação (range of indication) 151 4.19. Amplitude de faixa (span of indication) 151 4.20. Escala linear (linear scale) 152

5. Características do Instrumento de Medição 152

5.1. Faixa nominal (nominal range) 152 5.2. Valor nominal (nominal value) 152 5.3. Condições de Utilização (rated operating conditions) 152 5.4. Condições Limites (limiting conditions) 152 5.5. Condições de Referência (reference conditions) 152 5.6. Constante de um instrumento (instrument constant) 152 5.7. Característica de resposta (response characteristic) 153 5.8. Sensibilidade (sensitibility) 153 5.9. Limiar de mobilidade (discrimination, threshold) 153 5.10. Resolução (resolution) 153 5.11. Zona morta (dead zone) 153 5.12. Estabilidade (stability) 153 5.13. Discriminação (transparency) 153 5.14. Deriva (drift) 153 5.15. Tempo de resposta 153 5.16. Exatidão da medição 153 5.17. Classe de exatidão 153 5. 18. Repetitividade (de resultados de medições) 154

Page 10: Metrologia 7a

Metrologia Industrial

iv

5.19. Reprodutibilidade 154 5.20. Erro 154 5.22. Limite de Erro Admissível 154 5.23. Erro de um instrumento de medição 154 5.24. Erro no ponto de controle 154 5.25. Erro no zero (zero error) 154 5.26. Erro no span (span error) 155 5.27. Erro intrínseco (intrinsic error) 155 5.28. Tendência (bias) 155 5.29. Isenção de Tendência (freedom from bias) 155 5.30. Erro fiducial (fiducial error) 155

6. Conceitos estatísticos 156 6.1. Estatística 156 6.2. Probabilidade 156 6.3. Variável aleatória 156 6.5. Função distribuição 156 6.6. Parâmetro 157 6.7. Característica 157 6.8. População 157 6.9. Freqüência 157 6.10. Expectativa (de uma variável aleatória ou de uma distribuição de probabilidade; valor esperado; média 157 6.11. Desvio padrão 157 6.12. Estimativa 158 6.13. Variância 158 6.14. Covariância 159 6.15. Correlação 159 6.16. Independência 160 6.17. Representação gráfica 160

B. Normas ISO 9000 163 1. Introdução 163 2. Aspectos Legais 163 3. Histórico 164 4. Normas ISO 164

4.1. ISO 9000 164 4.2. ISO 9001 165 4.3. ISO 9002 165 4.4. ISO 9003 165 4.5. ISO 9004 165 4.6. Outras normas ISO 165

5. Filosofia da Norma 166 5.1. Controle e manutenção do equipamento 166 5.2. Controle do equipamento de medição e ensaio 166 5.3. Calibração do equipamento 166

6. Equipamento de Inspeção, Medição e Teste 167 7. Certificação pela ISO 9000 170

7.1. Projeto 170 7.2. Implementação 172

7.3. Comprovação Metrológica 175 Revisão 2000 da ISO 9000 177

Conclusão final 178 C. Rede Brasileira de Calibração 179 D. Fundamentos da Qualidade 181

Objetivos de Ensino 181 1. História da Qualidade 181

1.1. Primórdios 181 1.2. Qualidade Moderna 181

2. Conceito de Qualidade 183 2.1. Conformidade 183 2.2. Adequação ao uso 183 2.3. Satisfação do comprador a um preço competitivo 183

3. Características da Qualidade 183 3.1. Variável 184 3.2. Não-conformidade 184 3.3. Atributo 184 3.4. Defeito 184 3.5. Padrão e Especificação 184

4. Aspectos da Qualidade 185 4.1. Qualidade de Projeto 185 4.2. Qualidade de conformidade 185 4.3. Qualidade de Desempenho 185

5. Gerenciamento da Qualidade Total 186 5.1. Introdução 186 5.2. Sistema de Qualidade Total 186 5.3. Malha da Qualidade 186

6. Inspeção e Prevenção 191 6.1. Inspeção 191 6.2. Modo Prevenção 191

7. Medição 191 8. Algumas Filosofias de Qualidade 191

8.1. Introdução 191 8.2. W. Edwards Deming e sua filosofia 191 8.3. Philip B. Crosby e sua filosofia 193 8.4. Joseph M. Juran e sua filosofia 193 8.5. Comparação das Três Filosofias 194

Referências Bibliográficas 62 Normas 64

Page 11: Metrologia 7a

1

1.Sistema Internacional (SI) Objetivos de Ensino 1. Relatar como apareceram as unidades e se desenvolveu o sistema métrico, que se tornou o Sistema Internacional de Unidades. 2. Apresentar as unidades, símbolos, prefixos e modificadores das quantidades físicas. 3. Recomendar as regras de formatação e escrita correta das quantidades, unidades e símbolos do Sistema Internacional. 4. Mostrar a conversão de unidades, através da análise dimensional. 5. Conceituar valor exato e aproximado através de algarismos significativos. 6. Mostrar as regras de arredondamento, soma, subtração, multiplicação e divisão de algarismos significativos. 7. Apresenta o formato da notação científica dos números. 8. Discutir os métodos apropriados para fazer os cálculos e apresentar o resultado de modo conveniente e entendido para todos os ramos da engenharia.

1. Sistema de Unidades 1.1. Unidades

Unidade é uma quantidade precisamente estabelecida, em termos da qual outras quantidades da mesma natureza podem ser estabelecidas. Para cada dimensão há uma ou mais quantidades de referência para descrever quantitativamente as propriedades físicas de algum objeto ou material. Por exemplo, a dimensão de comprimento pode ser medida em unidades de kilômetro, metro, centímetro, pé ou a distância entre o nariz e a ponta do dedo de uma pessoa. A dimensão do tempo pode ser medida em unidades segundos, minutos, horas, dias, meses, anos.

1.2. História

Bíblia A preocupação de se ter um único sistema

de unidades está na Bíblia, onde se tem várias passagens, como: ter dois pesos e duas medidas é abominável para o Senhor (Provérbios, 20, 10). A Bíblia também tinha preocupações metrológicas: Não façais nada contra a equidade, nem no juízo, nem na regra, nem no peso, nem na medida. Seja justa a balança e justos os pesos; seja justo o alqueire e justa a medida (Levítico, 19, 35-36)

Antigüidade As antigas civilizações já tinham percebido

a necessidade de criação de unidades para a troca de mercadorias. Os padrões de peso datam de 7000 A.C. e os padrões de comprimento datam de 3000 A.C. Os babilônicos e os romanos já haviam estabelecido padrões e nomes para unidades. Originalmente, os padrões e unidades eram escolhidos por conveniência prática e se baseavam em medidas do corpo humano. Depois, verificou-se que era preferível desenvolver padrões baseados em fenômenos naturais reprodutíveis em vez de padrões baseados no corpo humano.

Como existe um grande número de dimensões, é necessário um sistema de unidades para se ter medições confiáveis e reprodutíveis e para uma boa comunicação entre todos os envolvidos com as medições. O desenvolvimento tecnológico em transportes e comunicações e o aumento do comércio globalizado tem mostrado a necessidade de uma linguagem comum de medição, um sistema capaz de medir qualquer quantidade física com unidades que tenham definição clara e precisa e uma relação lógica com as outras unidades.

Sistema inglês O sistema inglês, também chamado de

imperial, é usado na Inglaterra, Estados Unidos e Canadá, mas mesmo nestes países há

Page 12: Metrologia 7a

Sistema Internacional

2

muitas diferenças em seus detalhes. O insuspeito cientista inglês William Thompson, Barão Kelvin (1824-1907), dizia que o Sistema Imperial Inglês de unidades era absurdo, ridículo, demorado e destruidor de cérebro. De fato, a maioria das unidades se baseava em medidas do corpo humano, geralmente do corpo do rei de plantão. Por exemplo, a jarda (yard) era a distância do nariz ao polegar com o braço estendido do rei inglês Henry I (circa 1100).

O sistema inglês não é coerente e há vários múltiplos entre a maioria das unidades. Por exemplo, para o comprimento tem-se

12 polegadas para um pé 3 pés para uma jarda 1760 jardas para uma milha. Algumas pessoas tem a idéia errada que o

sistema métrico atual, o SI, seja uma criação recente e intencional para confrontar a tecnologia americana. Ele apareceu antes de os Estados Unidos se tornarem uma potência tecnológica. A tecnologia americana pode realmente ser melhorada pela coerência do SI. Em 1975, nos Estados Unidos, foi decretado o Ato de Conversão Métrica, dando à indústria americana a oportunidade de se mudar voluntariamente para o sistema SI. Nos Estados Unidos ainda há uma resistência para mudar as unidades, principalmente pelos segmentos da indústria que são estritamente domésticos e pelo público em geral. Isto é natural, pois a mudança altera um modo de vida consagrado e requer uma reeducação e aprendizado de novos termos.

Sistema Decimal A idéia de um sistema decimal de unidades

foi concebida pelo inglês Simon Stevin (1548-1620). Em 1671, o padre francês Gabriel Mouton, definiu uma proposta para um sistema decimal, baseando-se em medidas da Terra, em vez de medidas relacionadas com dimensões humanas.

As unidades decimais foram também consideradas no primeiros dias da Academia Francesa de Ciências, fundada em 1666. O que tornou o sistema métrico uma realidade foi a aceitação social e política da Revolução Francesa. Em seu entusiasmo para romper as tradições européias existentes, os líderes da Revolução acreditaram que até o sistema de medição deveria ser mudado porque o existente fora criado pela monarquia. Uma comissão de cientistas franceses foi formada para estabelecer um novo sistema de medição baseado em normas absolutas e constantes encontradas no universo físico. Tayllerand propôs um sistema decimal internacional de pesos e medidas a tous de temps, a tous les

peuples. Embora este trabalho tenha iniciado nesta época, a finalização da comissão foi muito demorada e difícil.

Sistema CGS O primeiro sistema métrico oficial, chamado

de centímetro-grama-segundo (CGS), foi proposto em 1795 e adotado na França em 1799. Em 1840 o governo francês, em resposta a uma falta do entusiasmo público para o uso voluntário do sistema, tornou obrigatório o sistema CGC. Outros países do mundo também adotaram oficialmente o sistema CGS. Em 1866, no início de seu desenvolvimento tecnológico, os Estados Unidos promulgaram um ato tornando legal o sistema métrico.

Em 1873 a Associação Britânica do Avanço da Ciência recomendou o uso do sistema CGS e desde então ele foi aplicado em todas as áreas da ciência. Por causa do uso crescente do sistema métrico através da Europa, o governo francês convidou várias nações para uma conferência internacional para discutir um novo protótipo do metro e um número de padrões idênticos para as nações participantes.

Em 1875, o Tratado do Metro definiu os padrões métricos para o comprimento e peso e estabeleceu procedimentos permanentes para melhorar e adotar o sistema métrico. Este tratado foi assinado por 20 países, inclusive o Brasil.

Foi constituída a organização internacional Conference Generale des Poids et Mesures (CGPM), para fornecer uma base razoável de unidades de medição precisa e universal. Esta organização consiste do Comitê International des Poids et Mesures (CIPM) que fornece a base técnica e que possui o laboratório de trabalho Bureau International des Poids et Mesures (BIPM). A CGPM é constituída pelos delegados de todos os estados membros da Convenção do Metro e se reúne de seis em seis anos para:

1. garantir a propagação e aperfeiçoamento do SI,

2. sancionar os resultados de novas determinações metrológicas fundamentais

3. adotar decisões que se relacionem com a organização e desenvolvimento do BIPM.

Sistema MKSA Depois do Tratado do Metro, tornou-se

necessário definir claramente os significados e as unidades de massa, peso e força. Em 1901, a 3a CGPM declara que o kilograma é uma unidade de massa e o termo peso denota uma quantidade de força. A decisão de definir o kilograma (e grama) de um modo diferente do que foi definido no sistema CGS requer um

Page 13: Metrologia 7a

Sistema Internacional

3

novo sistema, MKS, baseado no metro-kilograma-segundo.

Em 1935, a Comissão Internacional de Eletrotécnica (IEC) incorpora uma quarta unidade base de corrente, o ampère. Com esta adição, o sistema ficou conhecido como MKSA (ou Giorgi).

1.3. Sistema Internacional (SI) Em 1960, a 11a CGPM deu formalmente o

nome de Systeme International d'Unites, simbolizado como SI (Sistema Internacional) e o estabeleceu como padrão universal de unidades de medição. SI é um símbolo e não a abreviatura de Sistema Internacional e por isso é errado escrever S.I., com pontos.

O SI é um sistema de unidades com as seguintes características desejáveis:

Coerente Ser coerente significa que o produto ou o

quociente de quaisquer duas unidades é a unidade da quantidade resultante. Por exemplo, o produto da força de 1 N pelo comprimento de 1 m é 1 J de trabalho.

Decimal, No sistema decimal, todos os fatores

envolvidos na conversão e criação de unidades são somente potências de 10. No SI, as únicas exceções se referem às unidades de tempo baseadas no calendário, onde se tem

1 dia 24 horas 1 hora 60 minutos 1 minuto 60 segundos

Único, No sistema, há somente uma unidade para

cada tipo de quantidade física, independente se ela é mecânica, elétrica, química, ou termal. Joule é unidade de energia elétrica, mecânica, calorífica ou química.

Poucas Unidades de base As sete unidades de base são separadas e

independentes entre si, por definição e realização.

Unidades com tamanhos razoáveis, Os tamanhos das unidades evitam a

complicação do uso de prefixos de múltiplos e submúltiplos.

Completo O SI é completo e pode se expandir

indefinidamente, incluindo nomes e símbolos de unidades de base e derivadas e prefixos necessários.

Simples e preciso, O SI é simples, de modo que cientistas,

engenheiros e leigos podem usá-lo e ter noção das ordens de grandeza envolvidas. Não possui ambigüidade entre nomes de grandezas e de unidades.

Não degradável O SI não se degrade, de modo que as

mesmas unidades são usadas ontem, hoje e amanhã.

Universal Os símbolos e nomes de unidades formam

um único conjunto básico de padrões conhecidos, aceitos e usados no mundo inteiro.

Conclusão O SI oferece várias vantagens nas áreas de

comércio, relações internacionais, ensino e trabalhos acadêmicos e pesquisas científicas. Atualmente, mais de 90% da população do mundo vive em países que usam correntemente ou estão em vias de mudar para o SI. Os Estados Unidos, Inglaterra, Austrália, Nova Zelândia, África do Sul adotaram legalmente o SI. Também o Japão e a China estão atualizando seus sistemas de medidas para se conformar com o SI.

A utilização do SI é recomendada pelo BIPM, ISO, OIML, CEI e por muitas outras organizações ligadas à normalização, metrologia e instrumentação.

É uma obrigação de todo técnico

entender, respeitar e usar o SI corretamente.

Page 14: Metrologia 7a

Sistema Internacional

4

Tab. 1.1. Decisões da Conferência Geral de Pesos e Medidas

1a CGPM (1889) Estabeleceu padrões físicos para kilograma e metro (*).

3a CGPM (1901) Diferencia kilograma massa do kilograma forca. Define litro como o volume ocupado por 1 kg de

água com densidade máxima. Estabelece a aceleração normal da gravidade como g = 9,806 65 m/s2. 7a CGPM (1927)

Define com maiores detalhes o metro físico (*). Define unidades fotométricas de vela nova e lumen novo (*).

9a CGPM (1948) Define unidade de forca no MKS, joule e watt. Define ampère, volt, ohm, coulomb, farad, henry e

weber. Diferencia o ponto tríplice do ponto de gelo da água (0,01 oC). Estabelece a unidade de calor como joule. Escolhe grau Celsius entre grau centígrado, centesimal e Celsius. Padroniza a grafia dos símbolos de unidades e números.

10a CGPM (1954) Define o ponto tríplice da água como igual a 273,15 K. Define atmosfera normal como 101,325

N/m2. Define seis unidades de base (metro, kilograma, segundo, grau Kelvin*, ampère e candela.

11a CGPM (1960) Estabelece o Sistema Internacional de Unidades, SI. Redefine o metro baseando-se no

comprimento de onda da radiação do Kr-86. Define segundo como 1/31 556 925,974 7 do ano trópico para 0 janeiro 1900*. Estabelece 1 L = 1,000 028 dm3. Introduz as unidades suplementares: radiano e esterradiano.

12a CGPM (1964) Propõe mudança no segundo. Recomenda uso de unidades SI para volume e abole o litro para

aplicações de alta precisão. Abole curie (Ci) como unidade de atividade dos radionuclídeos. Acrescenta os prefixos femto (10-15) e atto (10-18).

13a CGPM (1968) Define segundo como duração de 9 192 631 770 períodos da radiação de 133Ce*. Muda a

unidade de temperatura termodinâmica de grau kelvin (oK) para kelvin (K). Define candela (*). Aumenta o número de unidades derivadas. Revoga e suprime o micron e vela nova.

14a CGPM (1971) Adota pascal (Pa) como unidade SI de pressão, siemens (S) de condutância elétrica. Define mol

como unidade de quantidade de matéria.

15a CGPM (1975) Recomenda o tempo universal coordenado. Recomenda o valor da velocidade da luz no vácuo

como c = 299 792 458 m/s. Adota becquerel (Bq) para atividade ionizante e gray (Gy) para dose absorvida. Introduz os prefixos peta (1015) e exa (1018)

16a CGPM (1979) Redefine candela como intensidade luminosa e revoga vela nova. Adota sievert (Sv) como

unidade SI de equivalente de dose. Aceita os símbolos l e L para litro.

17a CGPM (1983) Redefine o metro em relação à velocidade da luz no vácuo

* - Decisão a ser revista, revogada, modificada ou completada posteriormente.

Page 15: Metrologia 7a

5

1.4. Política IEEE e SI A política (Policy 9.20) adotada pelo IEEE

(Institute of Electrical and Electronics Engineers). A política de transição para as unidades SI começou em 01 JAN 96, estágio 1, que requer que todas as normas novas e revisões submetidas para aprovação devem ter unidades SI.

No estágio 2, a partir de 01 JAN 98, dá-se preferencia às SI. A política não aprova a alternativa de se colocar a unidade SI seguida pela unidade não SI em parêntesis, pois isto torna mais difícil a leitura do texto. É recomendável usar notas de rodapé ou tabelas de conversão.

No estágio 3, para ocorrer após 01 JAN 2000, propõe-se que todas as normas novas e revistas devem usar obrigatoriamente unidades SI. AS unidades não SI só podem aparecer em notas de rodapé ou em anexos informativos.

Foram notadas três exceções: 1. Tamanhos comerciais, como séries de

bitola de fios AWG 2. Conexões baseadas em polegadas 3. Soquetes e plugs

Quando houver conflitos com normas ou práticas de indústria existentes, deve haver uma avaliação individual e aprovado temporariamente pelo IEEE.

A implementação do plano não requer que os produtos já existentes, com parâmetros em unidades não SI, sejam substituídos por produtos com parâmetros em unidades SI.

2. Múltiplos e Submúltiplos Como há unidades muito pequenas e muito

grandes, elas devem ser modificadas por prefixos fatores de 10. Por exemplo, a distância entre São Paulo e Rio de Janeiro expressa em metros é de 4 x 109 metros. A espessura da folha deste livro é cerca de 1 x 10-7 metros. Para evitar estes números muito grandes e muito pequenos, compreensíveis apenas para os cientistas, usam-se prefixos decimais às unidades SI. Assim, a distância entre São Paulo e Rio se torna 400 kilômetros (400 km) e a espessura da folha de papel, 0,1 milímetros (0,1 mm).

Os prefixos para as unidades SI são usados para formar múltiplos e submúltiplos decimais das unidades SI. Deve-se usar apenas um prefixo de cada vez. O símbolo do prefixo deve ser combinado diretamente com o símbolo da unidade.

Tab. 1.2 - Múltiplos e Submúltiplos Prefixo Símbolo Fator de 10 yotta Y +24 zetta Z +21 exa E +18 peta P +15 tera T +12 giga G + 9 mega** M +6 kilo** k + 3 hecto* H +2 deca* da +1 deci* d -1 centi* c -2 mili** m -3 micro** μ -6 nano n -9 pico p -12 femto f -15 atto a -18 zepto z -21 yocto y -24

Observações

* Exceto para o uso não técnico de centímetro e em medidas especiais de área e volume, devem-se evitar estes prefixos.

** Estes prefixos devem ser os preferidos, por terem potências múltiplas de 3

Page 16: Metrologia 7a

6

3. Estilo e Escrita do SI 3.1. Introdução

O SI é uma linguagem internacional da medição. O SI é uma versão moderna do sistema métrico estabelecido por acordo internacional. Ele fornece um sistema de referência lógica e interligado para todas as medições na ciência, indústria e comércio. Para ser usado sem ambigüidade por todos os envolvidos, ele deve ter regras simples e claras de escrita. Parece que o SI é exageradamente rigoroso e possui muitas regras relacionadas com a sintaxe e a escrita dos símbolos, quantidades e números. Esta impressão é falsa, após uma análise. Para realizar o potencial e benefícios do SI, é essencial evitar a falta de atenção na escrita e no uso dos símbolos recomendados.

Os principais pontos que devem ser lembrados são:

1. O SI usa somente um símbolo para qualquer unidade e somente uma unidade é tolerada para qualquer quantidade, usando-se poucos nomes.

2. O SI é um sistema universal e os símbolos são usados exatamente da mesma forma em todas as línguas, de modo análogo aos símbolos para os elementos e compostos químicos.

3. Para o sucesso do SI deve-se evitar a tentação de introduzir novas mudanças ou inventar símbolos. Os símbolos escolhidos foram aceitos internacionalmente, depois de muita discussão e pesquisa.

Serão apresentadas aqui as regras básicas para se escrever as unidades SI, definindo-se o tipo de letras, pontuação, separação silábica, agrupamento e seleção dos prefixos, uso de espaços, vírgulas, pontos ou hífen em símbolos compostos. Somente respeitando-se estes princípios se garante o sucesso do SI e se obtém um conjunto eficiente e simples de unidades.

No Brasil, estas recomendações estão contidas na Resolução 12 (1988) do Conselho Nacional de Metrologia, Normalização e Qualidade Industrial.

3.2. Maiúsculas ou Minúsculas

Nomes de Unidades Os nomes das unidades SI, incluindo os

prefixos, devem ser em letras minúsculas quando escritos por extenso, exceto quando no início da frase. Os nomes das unidades com nomes de gente devem ser tratados como nomes comuns e também escritos em letra minúscula. Quando o nome da unidade fizer parte de um título, escrever o nome das unidades SI do mesmo formato que o resto do título. Exemplos:

A corrente é de um ampère. A freqüência é de 60 hertz. A pressão é de 15,2 kilopascals.

Temperatura No termo grau Celsius, grau é considerado

o nome da unidade e Celsius é o modificador da unidade. O grau é sempre escrito em letra minúscula, mas Celsius em maiúscula. O nome de unidade de temperatura no SI é o kelvin, escrito em letra minúscula. Mas quando se refere à escala, escreve-se escala Kelvin. Antes de 1967, se falava grau Kelvin, hoje, o correto é kelvin. Exemplos:

A temperatura da sala é de 25 graus Celsius.

A temperatura do objeto é de 303 kelvin. A escala Kelvin é defasada da Celsius de

273,15 graus

Símbolos Símbolo é a forma curta dos nomes das

unidades SI e dos prefixos. É incorreto chamá-lo de abreviação ou acróstico. O símbolo é invariável, não tendo plural, modificador, índice ou ponto.

Deve-se manter a diferença clara entre os símbolos das grandezas, das unidades e dos prefixos. Os símbolos das grandezas fundamentais são em letra maiúscula. Os símbolos das unidades e dos prefixos podem ser de letras maiúsculas e minúsculas. A importância do uso preciso de letras minúsculas e maiúsculas é mostrada nos seguintes exemplos:

G para giga; g para grama K para kelvin, k para kilo N para newton; n para nano T para tera; t para tonelada e T para a

grandeza tempo. S para siemens, s para segundo M para mega e M para a grandeza massa P para peta e Pa para pascal e p para pico L para a grandeza comprimento e L para a

unidade litro. m para mili e m para metro H para henry e Hz para hertz

Page 17: Metrologia 7a

Sistema Internacional

7

W para watt e Wb para weber Os símbolos são preferidos quando as

unidades são usadas com números, como nos valores de medições. Não se deve misturar ou combinar partes escritas por extenso com partes expressas por símbolo.

Letra romana para símbolos Quase todos os símbolos SI são escritos em

letras romanas. As duas únicas exceções são as letras gregas μ (mi ) para micro (10-6) e Ω (ômega) para ohm, unidade de resistência.

Nomes dos símbolos em letra minúscula Símbolos de unidades com nomes de

pessoas tem a primeira letra maiúscula. Os outros símbolos são escritos com letras minúsculas, exceto o símbolo do litro que pode ser escrito também com letra maiúscula (L), para não ser confundido com o número 1. Exemplos:

A corrente é de 5 A. O comprimento da corda é de 6,0 m. O volume é de 2 L.

Símbolos com duas letras Há símbolos com duas letras, onde somente

a primeira letra deve ser escrita como maiúscula e a segunda deve ser minúscula. Exemplos:

Hz é símbolo de hertz, H é símbolo de henry.

Wb é símbolo de weber, W é símbolo de watt.

Pa é símbolo de pascal, P é prefixo peta (1015)

Uso do símbolo e do nome Deve-se usar os símbolos somente quando

escrevendo o valor da medição ou quando o nome da unidade é muito complexo. Nos outros casos, usar o nome da unidade. Não misturar símbolos e nomes de unidades por extenso.

Exemplo correto: O comprimento foi medido em metros; a medida foi de 6,1 m.

Exemplo incorreto: O comprimento foi medido em m; a medida foi de 6,1 metros.

Símbolos em títulos Os símbolos de unidades não devem ser

usados em letra maiúscula, como em título. Quando for necessário, deve-se usar o nome da unidade por extenso, em vez de seu símbolo.

Correto: ENCONTRADO PEIXE DE 200 KILOGRAMAS

Incorreto: ENCONTRADO PEIXE DE 200 KG

Símbolo e início de frase Não se deve começar uma frase com um

símbolo, pois é impossível conciliar a regra de se começar uma frase com maiúscula e de escrever o símbolo em minúscula. Exemplo correto: Grama é a unidade comum de pequenas massas. Exemplo incorreto: g é a unidade de pequenas massas.

Prefixos Todos os nomes de prefixos de unidades SI

são em letras minúsculas quando escritos por extenso em uma sentença. A primeira letra do prefixo é escrita em maiúscula apenas quando no início de uma frase ou parte de um título. No caso das unidades de massa, excepcionalmente o prefixo é aplicado à grama e não ao kilograma, que já possui o prefixo kilo. Assim, se tem miligrama (mg) e não microkilograma (μkg); a tonelada corresponde a megagrama (Mg) e não a kilokilograma (kkg).

Aplica-se somente um prefixo ao nome da unidade. O prefixo e a unidade são escritos juntos, sem espaço ou hífen entre eles.

Os prefixos são invariáveis. Exemplo correto: O comprimento é de 110

km Exemplos incorretos:

O comprimento da estrada é de 110km. O comprimento da estrada é de 110 kms. O comprimento da estrada é de 110-km. O comprimento da estrada é de 110 k m. O comprimento da estrada é de 110 Km.

3.3. Pontuação

Ponto Não se usa o ponto depois do símbolo das

unidades, exceto no fim da sentença. Pode-se usar um ponto ou hífen para indicar o produto de dois símbolos, porém, não se usa o ponto para indicar o produto de dois nomes.

Exemplos corretos (incorretos): O cabo de 10 m tinha massa de 20 kg. (O cabo de 10 m. tinha massa de 20 kg..) A unidade de momentum é newton metro (A unidade de momentum é newton.metro) A unidade de momentum é o produto N.m A unidade de momentum é o produto N-m

Marcador decimal No Brasil, usa-se a vírgula como um

marcador decimal e o ponto como separador de grupos de 3 algarismos, em condições onde não se quer deixar a possibilidade de preenchimento indevido. Quando o número é menor que um, escreve-se um zero antes da vírgula. Nos Estados Unidos, usa-se o ponto

Page 18: Metrologia 7a

Sistema Internacional

8

como marcador decimal e a virgula como separador de algarismos.

Exemplo (Brasil) A expressão meio metro se escreve 0,5 m. O valor do cheque é de R$2.345.367,00 Exemplo (Estados Unidos) A expressão meio metro se escreve: 0.5 m. O valor do cheque é de US$2,345,367.00

3.4. Plural

Nomes das unidades com plural Quando escrito por extenso, o nome da

unidade métrica admite plural, adicionando-se um s, for

1. palavra simples. Por exemplo: ampères, candelas, joules, kelvins, kilogramas, volts.

2. palavra composta em que o elemento complementar do nome não é ligado por hífen. Por exemplo: metros quadrados, metros cúbicos, unidades astronômicas, milhas marítimas.

3. termo composto por multiplicação, em que os componentes são independentes entre si. Por exemplo: ampères-horas, newtons-metros, watts-horas, pascals-segundos.

Valores entre +1 e -1 são sempre singulares. O nome de uma unidade só passa ao plural a partir de dois (inclusive).

A medição do valor zero fornece um ponto de descontinuidade no que as pessoas escrevem e dizem. Deve-se usar a forma singular da unidade para o valor zero. Por exemplo, 0 oC e 0 V são reconhecidamente singulares, porém, são lidos como plurais, ou seja, zero graus Celsius e zero volts. O correto é zero grau Celsius e zero volt.

Exemplos: 1 metro 23 metros 0,1 kilograma 1,5 kilograma 34 kilogramas 1 hertz 60 hertz 1,99 joule 8 x 10-4 metro 4,8 metros por segundo

Nomes das unidades sem plural Certos nomes de unidades SI não possuem

plural por terminarem com s, x ou z. Exemplos: lux, hertz e siemens.

Certas partes dos nomes de unidades compostas não se modificam no plural por:

1. corresponderem ao denominador de unidades obtidas por divisão. Por exemplo, kilômetros por hora, lumens por watt, watts por esterradiano.

2. serem elementos complementares de nomes de unidades e ligados a eles por hífen ou preposição. Por exemplo, anos-luz, elétron-volts, kilogramas-força.

Símbolos Os símbolos das unidades SI não tem

plural. Exemplos: 2,6 m 1 m 0,8 m -30 oC 0 oC 100 oC

3.5. Agrupamento dos Dígitos

Numerais Todos os números são constituídos de

dígitos individuais, entre 0 e 9. Os números são separados em grupos de três dígitos, em cada lado do marcador decimal (vírgula).

Não se deve usar vírgula ou ponto para separar os grupos de três dígitos.

Deve-se deixar um espaço entre os grupos em vez do ponto ou vírgula, para evitar a confusão com os diferentes países onde o ponto ou vírgula é usado como marcador decimal.

Não deixar espaço entre os dígitos e o marcador decimal. Um número deve ser tratado do mesmo modo em ambos os lados do marcador decimal.

Exemplos:

Correto Incorreto

23 567 23.567 567 890 098 567.890.098 34,567 891 34,567.891 345 678,236 89 345.678,236.89 345 678,236 89 345 678,23 689

Números de quatro dígitos Os números de quatro dígitos são

considerados de modo especial e diferente dos outros. No texto, todos os números com quatro ou menos dígitos antes ou depois da vírgula podem ser escritos sem espaço.

Exemplos: 1239 1993 1,2349 2345,09 1234,5678 1 234,567 8

Tabelas As tabelas devem ser preenchidas com

números puros ou adimensionais. As suas respectivas unidades devem ser colocadas no cabeçalho das tabelas. Ver Tab.1.3.

Page 19: Metrologia 7a

Sistema Internacional

9

Tab.1.3. Variação da temperatura e volume específico

com a pressão para a água pura

Pressão, P kPa

Temperatura, T K

Volume, V m3/kg

50,0 354,35 3,240 1 60,0 358,95 2,731 7 70,0 362,96 2,364 7 80,0 366,51 2,086 9

Normalmente, em tabelas ou listagens,

todos os números usam agrupamentos de três dígitos e espaços. Adotando este formato, se diminui a probabilidade de erros.

Assim, a primeira linha da tabela significa Pressão P = 50,0 kPa Temperatura T = 354,35 K Volume específico V = 3,240 m3/kg

Gráficos Os números colocados nos eixos do

gráficos (abcissa e ordenada) são puros ou adimensionais. As unidades e símbolos das quantidades correspondentes são colocadas nos eixos, uma única vez.

O gráfico da tabela anterior fica assim Fig. 1.1. Variação da temperatura e volume com

a pressão

Números especiais Há certos números que possuem regras de

agrupamento especificas. Números envolvendo números de peça, documento, telefone e dinheiro, que não devem ser alterados, devem ser escritos na forma original. Vírgulas, espaços, barras, parêntesis e outros símbolos aplicáveis podem ser usados para preencher os espaços e evitar fraudes.

Exemplos: R$ 21.621,90 dinheiro (real)

16HHC-656/9978 número de peça 610.569.958-15 CPF (071) 359-3195 telefone

3.6. Espaçamentos

Múltiplos e submúltiplos Não se usa espaço ou hífen entre o prefixo

e o nome da unidade ou entre o prefixo e o símbolo da unidade. Por exemplo,

kiloampère, kA milivolt, mV megawatt, MW

Valor da medição da unidade A medição é expressa por um valor

numérico, uma unidade, sua incerteza e os limites de probabilidade. O valor é expresso por um número e a unidade pode ser escrita pelo nome ou pelo símbolo. Deve-se deixar um espaço entre o número e o símbolo ou nome da unidade. Os símbolos de grau, minuto e segundo são escritos sem espaço entre os números e os símbolos. Exemplos:

670 kHz 670 kilohertz 20 mm 10 N 36’ 36 oC

Modificador da unidade Quando uma quantidade é usada como

adjetivo, pode-se usar um hífen entre o valor numérico e o símbolo ou nome. Não se deve usar hífen com o símbolo de ângulo (o) ou grau Celsius (oC). Exemplos:

Pacote de 5-kg. Filme de 35-mm. Temperatura de 36 oC

Produtos, quocientes e por Deve-se evitar confusão, principalmente em

números e unidades compostos envolvendo produto (.) e divisão (/) e por . O bom senso e a clareza devem prevalecer no uso de hífens nos modificadores.

Símbolos algébricos Deve-se deixar um espaço de cada lado

dos sinais de multiplicação, divisão, soma e subtração e igualdade. Isto não se aplica aos símbolos compostos que usam os sinais travessão (/) e ponto (.).

Não se deve usar nomes de unidades por extenso em equações algébricas e aritméticas; usam-se os símbolos. Exemplos:

4 km + 2 km = 6 km 6N x 8 m = 48 N.m 26 N : 3 m2 = 8,67 Pa 100 W : (10 m x 2 K) = 5 W/(m.K) 10 kg/m3 x 0,7 m3 = 7 kg 15 kW.h

Page 20: Metrologia 7a

Sistema Internacional

10

3.7. Índices

Símbolos São usados índices numéricos (2 e 3) para

indicar quadrados e cúbicos. Não se deve usar abreviações como qu., cu, c. Quando se escrevem símbolos para unidades métricas com expoentes, como metro quadrado, centímetro cúbico, um por segundo, escrever o índice imediatamente após o símbolo.

Exemplos: 10 metros quadrados = 10 m2 1 por segundo = s-1

Nomes de unidades Quando se escrevem unidades compostas,

aparecem certos fatores com quadrado e cúbico. Quando aplicável, deve-se usar parêntesis ou símbolos exclusivos para evitar ambigüidade e confusão.

Por exemplo, para kilograma metro quadrado por segundo quadrado, o símbolo correto é kg.m2/s2. Seria incorreto interpretar como (kg.m)2/s2 ou (kg.m2/s)2

3.8. Unidades Compostas As unidades compostas são derivadas

como quocientes ou produtos de outras unidades SI.

As regras a serem seguidas são as seguintes: Não se deve misturar nomes extensos e

símbolos de unidades. Não usar o travessão (/) como substituto de por, quando escrevendo os nomes por extenso. Por exemplo, o correto é kilômetro por hora ou km/h. Não usar kilômetro/hora ou km por hora.

Deve-se usar somente um por em qualquer combinação de nomes de unidades métricas. A palavra por denota a divisão matemática. Não se usa por para significar por unidade ou por cada (além do cacófato). Por exemplo, a medição de corrente de vazamento, dada em microampères por 1 kilovolt da voltagem entre fases, deveria ser escrita em microampères por cada kilovolt da voltagem entre fases. No SI, 1 mA/kV é igual a 1 nanosiemens (nS). Outro exemplo, usa-se metro por segundo quadrado e não metro por segundo por segundo.

os prefixos podem coexistir num símbolo composto por multiplicação ou divisão. Por exemplo, kN.cm, kΩ.mA, kV/mm, MΩ, kV/ms, mW/cm2.

os símbolos de mesma unidade podem coexistir em um símbolo composto por divisão. Por exemplo, kWh/h, Ω.mm2/m.

Não se misturam unidades SI e não-SI. Por exemplo, usar kg/m3 e não kg/ft3.

Para eliminar o problema de qual unidade e múltiplo deve-se expressar uma quantidade de relação como percentagem, fração decimal ou relação de escala. Como exemplos, a inclinação de 10 m por 100 m pode ser expressa como 10%, 0.10 ou 1:10 e a tensão mecânica de 100 μm/m pode ser convertida para 0,01 %.

Deve-se usar somente símbolos aceitos das unidades SI. Por exemplo, o símbolo correto para kilômetro por hora é km/h. Não usar k.p.h., kph ou KPH.

Não se usa mais de uma barra (/) em qualquer combinação de símbolos, a não ser que haja parêntesis separando as barras. Como exemplos, escrever m/s2 e não m/s/s; escrever W/(m.K) ou (W/m)/K e não (W/m/K.

Para a maioria dos nomes derivados como um produto, na escrita do nome por extenso, usa-se um espaço ou um hífen para indicar a relação, mas nunca se usa um ponto (.). Algumas unidades compostas podem ser escritas como uma única palavra, sem espaço ou hífen. Por exemplo, a unidade de momento pode ser escrita como newton metro ou newton-metro e nunca newton.metro. Também, é correto escrever watt hora, watt-hora ou watthora, mas é incorreto watt.hora.

Para símbolos derivados de produtos, usa-se um ponto (.) entre cada símbolo individual. Não usar o ponto (.) como símbolo de multiplicação em equações e cálculos. Exemplos:

N.m (newton metro) Pa.s (pascal segundo) kW.h ou kWh (kilowatthora) Use 7,6 x 6,1 cosa e não 7,6.6,1.cosa Deve-se ter cuidado para escrever

unidades compostas envolvendo potências. Os modificadores quadrado e cúbico devem ser colocados após o nome da unidade a qual eles se aplicam. Para potências maiores que três, usar somente símbolos. Deve-se usar símbolos sempre que a expressão envolvida for complexa.

Por exemplo, kg/m2 , N/m2 Para representações complicadas com

símbolos, usar parêntesis para simplificar e esclarecer. Por exemplo, m.kg/(s3.A)

Page 21: Metrologia 7a

Sistema Internacional

11

3.9. Uso de Prefixo Deve-se usar os prefixos com 10 elevado a

potência múltipla de 3 (10-3, 10-6, 103, 106). Deve-se usar a notação científica para simplificar os casos de tabelas ou equações com valores numéricos com vários dígitos antes do marcador decimal e para eliminar a ambigüidade da quantidade de dígitos significativos. Por exemplo, usam-se:

mm (milímetro) para desenhos. kPa (kilopascal) para pressão kg/m3 (kilograma por metro cúbico)

para densidade absoluta. Quando conveniente escolhem-se prefixos

resultando em valores numéricos entre 0,1 e 1000, porém, sem violar as recomendações anteriores.

Em cálculos técnicos deve-se tomar muito cuidado com os valores numéricos dos dados usados. Para evitar erros nos cálculos, os prefixos devem ser convertidos em potências de 10 (exceto o kilograma, que é uma unidade básica da massa). Exemplos:

5 MJ = 5 x 106 J 4 Mg = 4 x 103 kg 3 Mm = 3 x 106 m

Devem ser evitados prefixos no denominador (exceto kg). Exemplos:

Escrever kJ/s e não J/ms Escrever kJ/kg e não J/g Escrever MJ/kg e não kJ/g

Não se misturam de prefixos, a não ser que a diferença em tamanho seja extrema ou uma norma técnica o requeira. Exemplos:

Correto: A ferramenta tem 44 mm de largura e 1500 mm de comprimento. Incorreto: A ferramenta tem 44 mm de largura e 1,5 m de comprimento.

Não se usam unidades múltiplas ou prefixos múltiplos. Por exemplo, Usa-se 15,26 m e não 15 m 260 mm; usa-se miligrama (mg) e não microkilograma (μkg)

Não usar um prefixo sem a unidade. Usar kilograma e não kilo Usar megohm e não megs

3.10. Ângulo e Temperatura Os símbolos de grau (o) e grau Celsius (oC)

devem ser usados quando se escreve uma medição. Quando se descreve a escala de medição e não uma medição, deve-se usar o nome por extenso.Exemplos:

Os ângulos devem ser medidos em graus e não em radianos.

O ângulo de inclinação é 27o. Não se deve deixar espaço entre o e C,

devendo se escrever oC e não o C.

A maioria das temperaturas é dada na escala Celsius; a escala Kelvin é usada somente em aplicações científicas. Exemplo:

A temperatura normal do corpo humano é 36 oC.

Quando se tem uma série de valores de temperatura ou uma faixa de temperatura, usar o símbolo de medição somente após o último valor. Exemplos:

A temperatura em Salvador varia de 18 a 39 oC.

As leituras do termômetro são: 100, 150 e 200 oC.

É tecnicamente correto usar prefixos SI com os nomes e símbolos, como grau Celsius (oC), kelvin (K) e grau angular (o). Porém, é preferível evitar esta prática, pois os nomes resultantes são confusos e difíceis de serem reconhecidos. É preferível ajustar o coeficiente numérico para não usar o prefixo.

Um método simples para comparar altas temperaturas Celsius com temperaturas Fahrenheit é que o valor Celsius é aproximadamente a metade da temperatura Fahrenheit. O erro percentual nesta aproximação é relativamente pequeno para valores Fahrenheit acima de 250. Para valores menores, subtrair 30 antes de dividir por 2; isto fornece uma precisão razoável até valores Fahrenheit de -40.

3.11. Modificadores de Símbolos As principais recomendações relacionadas

com os modificadores de símbolos são: Não se pode usar modificadores dos

símbolos SI. Quando é necessário o uso de modificadores das unidades, ele deve ser separado do símbolo ou então escrito por extenso. Por exemplo, não se usam Acc ou Aca, para diferenciar a corrente contínua da alternada. O correto é escrever 10 A cc ou 10 A ca, com o modificador separado do símbolo. Como o modificador não é SI, pode ser escrito de modo arbitrário, como cc., c.c., dc ou corrente contínua.

Nas unidades inglesas, é comum usar sufixos ou modificadores nos símbolos e abreviações para dar uma informação adicional. Por exemplo, usam-se psia e psig para indicar respectivamente, pressão absoluta e manométrica. Psia significa pound square inch absolute e psig significa pound square inch gauge. No sistema SI, é incorreto colocar sufixos para identificar a medição. Exemplos:

Usar pressão manométrica de 13 kPa ou 13 kPa (manométrica) e não 13 kPaG ou 13 kPag.

Usar pressão absoluta de 13 kPa ou 13 kPa (absoluta) e não 13 kPaA ou 13 kPaa.

Page 22: Metrologia 7a

Sistema Internacional

12

Sempre deixar espaço após o símbolo da unidade SI e qualquer informação adicional. Exemplo:

Usar 110 V c.a. ou 110 V (ca) e não 110 V CA ou 110 V ca, para voltagem de corrente alternada.

A potência e a energia são medidas em uma unidade SI determinada e não há necessidade de identificar a fonte da quantidade, desde que 100 watts é igual a 100 watts, independente da potência ser elétrica, mecânica ou térmica. Exemplos:

Usar MW e não MWe (potência elétrica ou megawatt elétrico).

Usar kJ e não kJt (kilojoule termal).

4. Algarismos Significativos

4.1. Introdução O mundo da Metrologia é quantitativo e

depende de números, dados e cálculos. Atualmente, os cálculos são feitos com calculadoras eletrônicas e computadores, que executam desde operações simples de aritmética até operações que um engenheiro nunca seria capaz de fazer manualmente. Os microcomputadores se tornam uma parte dominante da tecnologia, não apenas para os engenheiros mas para toda sociedade. As calculadoras e computadores podem apresentar os resultados com muitos algarismos, porém o resultado final deve ter o número de algarismos significativos de acordo com os dados envolvidos.

Quando se executam cálculos de engenharia e apresentam-se os dados, deve-se ter em mente que os números sendo usados tem somente um valor limitado de precisão e exatidão. Quando se apresenta o resultado de um cálculo de engenharia, geralmente se copiam 8 ou mais dígitos do display de uma calculadora. Fazendo isso, deduz-se que o resultado é exato até 8 dígitos, um tipo de exatidão que é raramente possível na prática da engenharia. O número de dígitos que podem ser apresentados é usualmente muito menos que 8, por que ele depende de problemas particulares e envolve outros conceitos de algarismos significativos, precisão, tolerância, resolução e conversão.

4.2. Conceito Dígito é qualquer um dos numerais arábicos

0, 1, 2, 3, 4, 5, 6, 7, 8 e 9. Algarismo ou dígito significativo em um número é o dígito que pode ser considerado confiável como um resultado de medições ou cálculos. O algarismo significativo correto expressa o resultado de

uma medição de forma consistente com a precisão medida. O número de algarismos significativos em um resultado indica o número de dígitos que pode ser usado com confiança. Os algarismos significativos são todos aqueles necessários na notação científica.

Qualquer dígito, entre 1 e 9 e todo zero que não anteceda o primeiro dígito não zero e alguns que não sucedam o último dígito não zero é um algarismo significativo. O status do zero é ambíguo, por que o zero também é usado para indicar a magnitude do número.

Por exemplo, não há dificuldade em determinar a quantidade de algarismos significativos dos seguintes números:

708 3 algarismos significativos 54,9 3 algarismos significativos 3,6 2 algarismos significativos 8,04 3 algarismos significativos 980,9 4 algarismos significativos 0,830 06 5 algarismos significativos Em um número, o dígito menos significativo

é o mais à direita, dígito mais significativo é o mais à esquerda. Por exemplo, no número 2345, 2 é o dígito mais significativo e 5 é o menos significativo.

Para qualquer número associado à medição de uma grandeza, os algarismos significativos devem indicar a qualidade da medição ou computação sendo apresentada. Os dados de engenharia e os resultados de sua computação devem ser apresentados com um número correto de algarismos significativos, para evitar de dar uma impressão errada de sua exatidão. A quantidade de algarismos significativos está associado à precisão, exatidão e ao método de obtenção destes dados e resultados.

4.3. Algarismo Significativo e o Zero O zero nem sempre é algarismo

significativo, quando incluído em um número, pois ele pode ser usado como parte significativa da medição ou pode ser usado somente para posicionar o ponto decimal.

Por exemplo, no número 804,301 os dois zeros são significativos pois estão intercalados entre outros dígitos.

Porém, no número 0,0007, os zeros são necessários para posicionar a vírgula e dar a ordem de grandeza do número e por isso pode ser ou não significativo. Porém, se o número 0,0007 for a indicação de um instrumento digital, ele possui quatro algarismos significativos.

Também no número 20 000 os zeros são necessários para dar a ordem de grandeza do número e por isso nada se pode dizer acerca de ser ou não ser significativo. Assim o status do zero nos números 20 000 e 0,007 é

Page 23: Metrologia 7a

Sistema Internacional

13

ambíguo e mais informação é necessária para dizer se o zero é significativo ou não. Quando não há informação adicional, se diz que 0,0007 e 20 000 possuem apenas 1 algarismo significativo.

No número 2,700, os zeros não são necessários para definir a magnitude deste número mas são usados propositadamente para indicar que são significativos e por isso 2,700 possui quatro dígitos significativos..

4.4. Notação científica Para eliminar ou diminuir as ambigüidades

associadas à posição do zero, o número deve ser escrito na notação científica, com um número entre 1 e 10 seguido pela potência de 10 conveniente. Usar a quantidade de algarismos significativos válidos no número entre 1 e 10, cortando os zeros no fim dos inteiros quando não forem significativos ou mantendo os zeros no fim dos inteiros, quando forem significativos. Deste modo, se o número 20 000 for escrito na notação científica como 2,000 0 x 103, ele terá 5 dígitos significativos. De modo análogo,

20 000 = 2 x 103 1 dígito significativo 20 000 = 2,0 x 103 2 dígitos significativos 20 000 = 2,00 x 103 3 dígitos significativos 20 000 = 2,000 x103 4 dígitos significativos

A ambigüidade do zero em números

decimais também desaparece, quando se escreve os números na notação científica. Os zeros à direita, em números decimais só devem ser escritos quando forem garantidamente significativos. Por exemplo, 0,567 000 possui 6 algarismos significativos, pois se os três zeros foram escritos é porque eles são significativos.

Assim, o número decimal 0,007 pode ser escrito de diferentes modos, para expressar diferentes dígitos significativos:

7 x 10-3 1 dígito significativo 7,0 x 10-3 2 dígitos significativos 7,000 x 10-3 4 dígitos significativos 7,000 00 x 10-3 6 dígitos significativos

A notação científica serve também para se

escrever os números extremos (muito grandes ou muito pequenos) de uma forma mais conveniente Por exemplo, seja a multiplicação dos números:

1 230 000 000 x 0,000 000 000 051 = 0,063 É mais conveniente usar a notação

científica:

(1,23 x 109) x (5,1 x 10-11) = 6,3 x 10-2 Na multiplicação acima, o resultado final é

arredondado para dois algarismos significativos, que é o menor número de algarismos das parcelas usadas no cálculo.

A multiplicação dos números com potência de 10 é feita somando-se algebricamente os expoentes.

Na notação científica, os números são escritos em uma forma padrão, como o produto de um número entre 1 e 10 e uma potência conveniente de 10.

Por exemplo, os números acima podem ser escritos como:

10 000 000 = 1,00 x 107 (3 dígitos significativos) 0,000 000 12 = 1,2 x 10-7(2 dígitos

significativos). Pode-se visualizar o expoente de 10 da

notação científica como um deslocador do ponto decimal. Por exemplo, o expoente +7 significa mover o ponto decimal sete casas para a direita; o expoente -7 significa mover o ponto decimal sete casas para a esquerda.

Para fazer manualmente os cálculos de números escritos na notação científica, as vezes, é conveniente colocá-los em forma não convencional com o objetivo de fazer contas de somar ou subtrair. Estas formas são obtidas simplesmente ajustando simultaneamente a posição do ponto decimal e os expoentes, a fim de se obter os mesmos expoentes de 10. Nesta operação, perde-se o conceito de algarismos significativos.

Por exemplo: 1,2 x 10-4 + 4,1 x 10-5 + 0,3 x 10-3 = 1,2 x 10-4 + 0,41 x 10-4 + 3,0 x 10-4 = (1,2 + 0,41 + 3,0) x 10-4 = 4,6 x 10-4 Deve-se evitar escrever expressões como

M = 1800 g, a não ser que se tenha o erro absoluto máximo de 1 g. Rigorosamente, 1800 g significa (1800 ±1) g.

Quando não se tem esta precisão e quando há suspeita do segundo dígito decimal ser incorreto, deve-se escrever

M = (1,8 ± 0,1) x 103 g Se o quarto dígito decimal é o duvidoso,

então, o correto é escrever M = (1,800 ± 0,001) x 103 g

Page 24: Metrologia 7a

Sistema Internacional

14

4.5. Algarismo Significativo e a Medição

Todos os números associados à medição de uma grandeza física devem ter os algarismos significativos correspondentes à precisão do instrumento de medição. Observar as três indicações analógicas apresentadas na Fig.2.

O voltímetro analógico (a) indica uma voltagem de 1,45 V. O último algarismo, 5, é duvidoso e foi arbitrariamente escolhido. Alguém poderia ler 1,49 e a leitura estaria igualmente correta. Os algarismos confiáveis são apenas o 1 e o 4; o último é estimado e duvidoso. O voltímetro com uma escala com esta graduação pode dar, no máximo, três algarismos significativos. É errado dizer que a indicação é de 1,450 ou 1,4500, pois está se superestimando a precisão do instrumento. Do mesmo modo, é impreciso dizer que a indicação é de 1,4 pois é agora está se subestimando a precisão do indicador e não usando toda sua capacidade. Na medição 1,45, o dígito 4 é garantido e no número 1,4 o dígito 4 é duvidoso. Para que o dígito 4 seja garantido é necessário que haja qualquer outro algarismo duvidoso depois dele.

Fig. 1.2 - Várias escalas de indicação

Na Fig. 2 (b) tem-se a medição de uma espessura por uma escala graduada. É possível se ler 0,26, pois a espessura cai exatamente no terceiro traço depois de 0,2 e a medição possui apenas dois algarismos significativos. Se pudesse perceber o ponteiro entre o terceiro e o quarto traço, a medição poderia ser 0,265 e a medição teria três algarismos significativos.

Na Fig. 2(c), a indicação é 48,6 ou 48,5 ou qualquer outro dígito extrapolado entre 0 e 9.

As medições da Fig. 2(a) e 1(c) possuem três algarismos significativos e o terceiro dígito de cada medição é duvidoso. A medição da Fig. 2(b) possui apenas dois algarismos significativos. Para se ter medições mais precisas, com um maior número de algarismos significativos, deve-se ter novo medidor com uma escala maior e com maior número de divisões.

Na Fig. 3, tem-se duas escalas de mesmo comprimento, porém, a segunda escala possui maior número de divisões. Para medir o mesmo comprimento, a primeira escala indicará 6,2 onde o dígito 2 é o duvidoso, pois é escolhido arbitrariamente, pois está entre 6 e 7, muito próximo de 6. A leitura de 6,3 estaria igualmente correta. A leitura da segunda escala será 6,20 pois a leitura cai entre as divisões 2 e 3, também muito próximo de 2. Também poderia ser lido 6,21 ou 6,22, que seria igualmente aceitável.

Fig. 1.3. Escalas de mesmo tamanho mas com

diferentes divisões entre os dígitos. Em paquímetros e micrômetros, medidores

de pequenas dimensões, é clássico se usar a escala vernier, para melhorar a precisão da medida. A escala vernier é uma segunda escala que se move em relação à principal. A segunda escala é dividida em unidades um pouco menores que as unidades da principal. Por exemplo, observar a escala da Fig. 3, que possui duas partes: a unidade principal e a unidade decimal são lidas na escala superior e a unidade centesimal é lida na escala inferior. Para fazer a medição da distância X, primeiro

Page 25: Metrologia 7a

Sistema Internacional

15

se lê as unidades à esquerda da linha de indicação da régua, que são 4,4. Depois a leitura continua no centésimo, que é a linha da escala inferior que se alinha perfeitamente com a linha da escala principal. Neste exemplo, elas se alinham na 6a linha, de modo que elas indicam 0,06 e a medição final de X é 4,46.

Na expressão da medição, o valor é sempre aproximado e deve ser escrito de modo que todos os dígitos decimais, exceto o último, sejam exatos. O erro admissível para o último dígito decimal não deve exceder a 1.

Por exemplo, uma resistência elétrica de 1,35 Ω é diferente de uma resistência de 1,3500 Ω. Com a resistência elétrica de R = 1,35 Ω, tem-se erro de ±0,01 Ω, ou seja, 1,34 Ω < R < 1,36 Ω.

Para a outra resistência de R = 1,3500 Ω a precisão é de 0,0001 Ω, ou seja, 1,3499 Ω < R < 1,3501 Ω

Se o resultado de um cálculo é R = 1,358 Ω e o terceiro dígito depois da vírgula decimal é incorreto, deve-se escrever R = 1,36 Ω.

Devem ser seguidas regras para apresentar e aplicar os dados de engenharia na medição e nos cálculos correspondentes. As vezes, os engenheiros e técnicos não estão preocupados com os algarismos significativos. Outras vezes, as regras não se aplicam. Por exemplo, quando se diz que 1 pé = 0,3048 metro ou 1 libra = 0,454 kilograma, o dígito 1 é usado sozinho. O mesmo se aplica quando se usam números inteiros em equações algébricas. Por exemplo, o raio de um circuito é a metade do diâmetro e se escreve: r = d/2. Na equação, não é necessário escrever que r = d/2,0000, pois se entende que o 2 é um número inteiro exato.

Outra confusão que se faz na equivalência se refere ao número de algarismos significativos. Obviamente, 1 km equivale a 1.000 metros porém há diferenças práticas. Por exemplo, o odômetro do carro, com 5 dígitos pode indicar 89.423 km rodados, porém isso não significa 89.423 000 metros, pois ele deveria ter 8 dígitos. Se o odômetro tivesse 6 dígitos, com medição de 100 metros, ele indicaria 89 423,6 km.

Por exemplo, as corridas de atletismo de rua tem distâncias de 10 km, 15 km e 21 km. As corridas de pista são de 100 m, 800 m, 5000 m e 10 000 m. Quem corre 10 km numa corrida de rua correu aproximadamente 10 000 metros. A distância foi medida por carro, por bicicleta com hodômetro calibrado ou por outros meios, porém, não é possível dizer que a distância é exatamente de 10.000 m. Porém, quem corre 10 000 metros em uma pista olímpica de 400 metros, deve ter corrido exatamente 10 000 metros. A distância desta

pista foi medida com uma fita métrica, graduada em centímetros. Poucas maratonas no mundo são reconhecidas e certificadas como de 42 195 km, pois a medição desta distância é complicada e cara.

4.6. Algarismo Significativo e o Display

Independente da tecnologia ou da função, um instrumento pode ter display analógico ou digital.

O indicador analógico mede uma variável que varia continuamente e apresenta o valor medido através da posição do ponteiro em uma escala. Quanto maior a escala e maior o número de divisões da escala, melhor a precisão do instrumento e maior quantidade de algarismos significativos do resultado da medição.

O indicador digital apresenta o valor medido através de números ou dígitos. Quanto maior a quantidade de dígitos, melhor a precisão do instrumento. O indicador digital conta dígitos ou pulsos. Quando o indicador digital apresenta o valor de uma grandeza analógica, internamente há uma conversão analógico-digital e finalmente, uma contagem dos pulsos correspondentes.

Atualmente, a eletrônica pode contar pulsos sem erros. Porém, não se pode dizer que o indicador digital não apresenta erros, pois é possível haver erros na geração dos pulsos. Ou seja, a precisão do instrumento eletrônico digital está relacionada com a qualidade dos circuitos que convertem os sinais analógicos em pulsos ou na geração dos pulsos.

Também os indicadores digitais possuem uma precisão limitada. Neste caso, é direto o entendimento da quantidade de algarismos significativos. Nos displays digitais, o último dígito é o também duvidoso. Na prática, é o dígito que está continuamente variando.

Um indicador digital com quatro dígitos pode indicar de 0,001 até 9999. Neste caso, os zeros são significativos e servem para mostrar que é possível se medir com até quatro algarismos significativos. O indicador com 4 dígitos possui 4 dígitos significativos.

Fig. 1.5. Instrumento digital 4 ½ dígitos

Page 26: Metrologia 7a

Sistema Internacional

16

Em eletrônica digital, é possível se ter indicadores com 4 ½ dígitos. O meio dígito está associado com a percentagem de sobrefaixa de indicação e somente assume os valores 0 ou 1. O indicador com 4 ½ dígitos pode indicar, no máximo, 19 999, que é aproximadamente 100% de 9999 (20 000/10 000). Os quatro dígitos variam de 0 a 9; o meio dígito só pode assumir os valores 0 ou 1.

Embora exista uma correlação entre o número de dígitos e a precisão da medição, também deve existir uma consistência entre a precisão da malha e o indicador digital do display. Por exemplo, na medição de temperatura com termopar, onde a precisão da medição inclui a precisão do sensor, dos fios de extensão, da junta de compensação e do display. Como as incertezas combinadas do sensor, dos fios e da junta de compensação são da ordem de unidades de grau Celsius, não faz nenhum sentido ter um display que indique, por exemplo, décimo ou centésimo de grau Celsius. Por exemplo, na medição de temperatura com termopar tipo J, onde a precisão resultante do sensor, fios e junta de compensação é da ordem de ±5 oC, na faixa de 0 a 100 oC, o display digital basta ter 2 ½, para indicar, por exemplo, 101 oC. Não faz sentido ter um display indicando 98,2 ou 100,4 oC pois a incerteza total da malha é da ordem de ±5 oC. O mesmo raciocínio vale para um display analógico, com escala e ponteiro.

4.7. Algarismo Significativo e Calibração

Todos os instrumentos devem ser calibrados ou rastreados contra um padrão. Mesmo os instrumentos de medição, mesmo os instrumentos padrão de referência devem ser periodicamente aferidos e calibrados. Por exemplo, na instrumentação, tem-se os instrumentos de medição e controle, que são montados permanentemente no processo. Antes da instalação, eles foram calibrados. Quando previsto pelo plano de manutenção preventiva ou quando solicitado pela operação, estes instrumentos são aferidos e recalibrados. Para se fazer esta calibração, devem ser usados também instrumentos de medição, como voltímetros, amperímetros, manômetros, termômetros, décadas de resistência, fontes de alimentação. Estes instrumentos, geralmente portáteis, também devem ser calibrados por outros da oficina. Os instrumentos da oficina devem ser calibrados por outros de laboratórios do fabricante ou laboratórios nacionais. E assim, sobe-se na escada de calibração.

É fundamental entender que a precisão do padrão de referência deve ser melhor que a do

instrumento sob calibração. Quanto melhor? A resposta é um compromisso entre custo e precisão. Como recomendação, a precisão do padrão deve ser entre quatro a dez (NIST) ou três a dez (INMETRO) vezes melhor que a precisão do instrumento sob calibração. Abaixo de três ou quatro, a incerteza do padrão é da ordem do instrumento sob calibração e deve ser somada à incerteza dele. Acima de dez, os instrumentos começam a ficar caro demais e não se justifica tal rigor.

Assim, para calibrar um instrumento com precisão de 1%, deve-se usar um padrão com precisão entre 0,3% a 0,1%.

Quando se usa um padrão de 1% para calibrar um instrumento de medição com precisão de 1%, o erro do instrumento de medição passa para 2%, por que

1% + 1% = 2% ou (0,01 + 0,01 = 0,02) Quando se usa um padrão de 0,1% para

calibrar um instrumento de medição com precisão de 1%, o erro do instrumento de medição permanece em 1%, porque 1% + 0,1% = 1% (1+ 0,1 = 1).

Além da precisão do padrão de referência, é também importante definir a incerteza do procedimento de calibração, para que ele seja confiável.

4.8. Algarismo Significativo e a Tolerância

O número de dígitos decimais colocados à direita da vírgula decimal indica o máximo erro absoluto. O número total de dígitos decimais corretos, que não incluem os zeros à esquerda do primeiro dígito significativo, indica o máximo erro relativo. Quanto maior o número de algarismos significativos, menor é o erro relativo.

A precisão pretendida de um valor deve se relacionar com o número de algarismos significativos mostrados. A precisão é mais ou menos a metade do último dígito significativo retido. Por exemplo, o número 2,14 pode ter sido arredondado de qualquer número entre 2,135 e 2,145. Se arredondado ou não, uma quantidade deve sempre ser expressa com a notação da precisão em mente. Por exemplo, 2,14 polegadas implica uma precisão de ±0,005 polegada, desde que o último algarismo significativo é 0,01.

Pode haver dois problemas: 1. Quantidades podem ser expressas em

dígitos que não pretendem ser significativos. A dimensão 1,1875" pode realmente ser muito precisa, no caso do quarto dígito depois da vírgula ser

Page 27: Metrologia 7a

Sistema Internacional

17

significativo ou ela pode ser uma conversão decimal de uma dimensão como 1 3/16, no caso em que a dimensão é dada com excesso de algarismos significativos.

2. Quantidades podem ser expressas omitindo-se os zeros significativos. A dimensão de 2" pode significar cerca de 2" ou pode significar uma expressão muito precisa, que deveria ser escrita como 2,000". No último caso, enquanto os zeros acrescentados não são significativos no estabelecimento do valor, elas são muito significativos em expressar a precisão adequada conferida.

Portanto, é necessário determinar uma precisão implicada aproximada antes do arredondamento. Isto pode ser feito pelo conhecimento das circunstâncias ou pela informação da precisão do equipamento de medição.

Se a precisão da medição é conhecida, isto fornecerá um menor limite de precisão da dimensão e alguns casos, pode ser a única base para estabelecer a precisão. A precisão final nunca pode ser melhor que a precisão da medição.

A tolerância em uma dimensão dá uma boa indicação da precisão indicada, embora a precisão, deva ser sempre menor que a tolerância. Uma dimensão de 1,635 ±0,003" possui precisão de ±0,0005", total 0,001" . Uma dimensão 4,625 ±0,125" está escrita incorretamente, provavelmente por causa da decimalização das frações. O correto seria 4,62 ±0,12, com uma precisão indicada de ±0,005 (precisão total de 0,01)

Uma regra útil para determinar a precisão indicada a partir do valor da tolerância é assumir a precisão igual a um décimo da tolerância. Como a precisão indicada do valor convertido não deve ser melhor do que a do original, a tolerância total deve ser dividida por 10 e convertida e o número de algarismos significativos retido.

4.9. Algarismo Significativo e Conversão

Uma medição de variável consiste de um valor numérico e de uma unidade. A unidade da medição pode ser uma de vários sistemas. Na conversão de um sistema para outro, o estabelecimento do número correto de algarismos significativos nem sempre é entendido ou feito adequadamente. A retenção de um número excessivo de algarismos significativos resulta em valores artificiais indicando uma precisão inexistente e exagerada. O corte de muitos algarismos significativos resulta na perda da precisão

necessária. Todas as conversões devem ser manipuladas logicamente, considerando-se cuidadosamente a precisão pretendida da quantidade original. A precisão indicada é usualmente determinada pela tolerância especifica ou por algum conhecimento da quantidade original. O passo inicial na conversão é determinar a precisão necessária, garantindo que não é nem exagerada e nem sacrificada. A determinação do número de algarismos significativos a ser retido é difícil, a não ser que sejam observados alguns procedimentos corretos.

A literatura técnica apresenta tabelas contendo fatores de conversão com até 7 dígitos.

A conversão de quantidades de unidades entre sistemas de medição envolve a determinação cuidadosa do número de dígitos a serem retidos depois da conversão feita. Converter 1 quarto de óleo para 0,046 352 9 litros de óleo é ridículo, por que a precisão pretendida do valor não garante a retenção de tantos dígitos. Todas as conversões para serem feitas logicamente, devem depender da precisão estabelecida da quantidade original insinuada pela tolerância especifica ou pela natureza da quantidade sendo medida. O primeiro passo após o cálculo da conversão é estabelecer o grau da precisão.

O procedimento correto da conversão é multiplicar a quantidade especificada pelo fator de conversão exatamente como dado e depois arredondar o resultado para o número apropriado de algarismos significativos à direita da vírgula decimal ou para o número inteiro realístico de acordo com o grau de precisão implicado no quantidade original.

Por exemplo, seja um comprimento de 75 ft, onde a conversão métrica é 22,86 m. Se o comprimento em pés é arredondado para o valor mais próximo dentro de 5 ft, então é razoável aproximar o valor métrico próximo de 0,1 m, obtendo-se 22,9 m. Se o arredondamento dos 75 ft foi feito para o valor inteiro mais próximo, então o valor métrico correto seria de 23 m. Enfim, a conversão de 75 ft para 22,86 m é exagerada e incorreta; o recomendável é dizer que 75 ft eqüivalem a 23 m.

Outro exemplo envolve a conversão da pressão atmosférica padrão, do valor nominal de 14,7 psi para 101,325 kPa. Como o valor envolvido da pressão é o nominal, ele poderia ser expresso com mais algarismos significativos, como 14,693 psi, onde o valor métrico correspondente seria 101,325, com três dígitos depois da vírgula decimal. Porém, quando se estabelece o valor nominal de 14,7

Page 28: Metrologia 7a

Sistema Internacional

18

o valor correspondente métrico coerente é de 101,3, com apenas um dígito depois da vírgula.

4.10. Computação matemática Na realização das operações aritméticas,

cada número no cálculo é fornecido com um determinado número de algarismos significativos e o resultado final deve ser expresso com um número correto de algarismos significativos. Quando se fazem as operações aritméticas, deve-se seguir as seguintes recomendações.

1. Fazer a computação de modo que haja um número excessivo de dígitos.

2. Arredonde o número correto de algarismos significativos. Para arredondar, aumente o último número retido de 1, se o primeiro número descartado for maior que 5. Se o dígito descartado for igual a 5, o último dígito retido deve ser aumentado de 1 somente se for ímpar. Se o dígito descartado for menor que 5, o último dígito retido permanece inalterado.

3. Para multiplicação e divisão, arredonde de modo que o número de algarismos significativos no resultado seja igual ao menor número de algarismos significativos contidos nas parcelas da operação.

4. Para adição e subtração, arredonde de modo que o dígito menos significativo (da direita) do resultado corresponda ao algarismo mais significativo duvidoso contido na adição ou na subtração.

5. Para combinações de operações aritméticas, fazer primeiro as multiplicações e divisões, arredondar quando necessário e depois fazer a somas e subtrações. Se as somas e subtrações estão envolvidas para posterior multiplicação e divisão, faze-las, arredondar e depois multiplicar e dividir.

6. Em cálculos mais complexos, como solução de equações algébricas simultâneas, quando for necessário obter resultados intermediários com algarismos significativos extras, garantir que os resultados finais sejam razoavelmente exatos, usando o bom senso e deixando de lado as regras acima.

7. Quando executar os cálculos com calculadora eletrônica ou microcomputador, também ter bom senso e não seguir as regras rigorosamente. Não é necessário interromper a computação em cada

estágio para estabelecer o número de algarismos significativos. Porém, depois de completar a computação, considerar a precisão global e arredondar os resultados corretamente.

8. Em qualquer operação, o resultado final deve ter uma quantidade de algarismos significativos igual à quantidade da parcela envolvida com menor número de significativos.

Exemplos de arredondamento para três algarismos significativos:

1,8765 1,88 8,455 8,46 6,965 6,96 10,580 10,6

Soma e Subtração Quando se expressam as quantidades de

massa como M = 323,1 g e m = 5,722 g significa que as balanças onde foram pesadas as massas tem classes de precisão muito diferentes. A balança que pesou a massa m é cem vezes mais precisa que a balança de M. A precisão da balança de M é 0,1 g; a precisão da balança de m é de 0,001 g.

Somando-se os valores de (m + M) obtém-se o valor correto de 328,8 g. O valor 328,822 g é incorreto pois a precisão do resultado não pode ser melhor que a precisão da pior balança. Para se obter este resultado, considerou-se a massa M = 323,100, inventando-se por conta própria dois zeros. Em vez de se inventar zeros arbitrários, desprezam-se os dígitos conhecidos da medição de m; arredondando 5,722 para 5,7.

O valor correto de 328,8 pode ser obtido através de dois caminhos diferentes:

1. arredondando-se os dados M = 323,1 g m = 5,7 g --------------- M + m = 328,8 g 2. arredondando-se o resultado final M = 323,1 g m = 5,722 g --------------- M + m = 328,822 g = 328,8 g Deste modo, o número de algarismos

significativos da soma é igual ao número da parcela com o menor número de algarismos significativos.

Quando há várias parcelas sendo somadas, o erro pode ser maior se as parcelas forem arredondadas antes da soma. Recomenda-se usar a regra do dígito decimal de reserva,

Page 29: Metrologia 7a

Sistema Internacional

19

quando os cálculos são feitos com um dígito extra e o arredondamento é feito somente no final da soma.

Exemplo 1 Seja a soma:

132,7 + 1,274 + 0,063321 + 20,96 + 46,1521 Com qualquer método, o resultado final

deve ter apenas um algarismo depois da vírgula, pois a parcela 132,7 tem apenas um algarismo depois da vírgula.

Se todas as parcelas forem arredondadas antes da soma, se obtém

132,7 + 1,3 + 0,1 + 21,0 + 46,2 = 201,3 Usando-se a regra do dígito reserva, tem-se 132,7 + 1,27 + 0,06 + 20,96 + 46,15 =

201,14 Fazendo-se o arredondamento no final, tem-

se 201,14 = 201,1.

Exemplo 2 Achar a soma das raízes quadradas dos

seguintes números, com precisão de 0,01

N = + + +5 6 7 8 Usando-se a regra do dígito decimal

reserva, tomam-se os dados com precisão de 0,001.

2,236 + 2,449 + 2,646 + 2,828 = 10,159

Arredondando-se no final, tem-se 10,16. Sem a regra do dígito decimal reserva seria

10,17 (verificar). Quando o número de parcelas é muito

grande (centenas ou milhares), recomenda-se usar dois dígitos decimais reservas. Quando se somam várias parcelas com o mesmo número de algarismos depois da vírgula decimal, deve-se considerar que o máximo erro absoluto da soma é maior do que das parcelas. Por isso, é prudente arredondar para um dígito a menos.

Exemplo 3 Determinar a soma

1,38 +8,71 + 4,48 + 11,96 + 7,33 = 33,86 Porém, o resultado mais conveniente é

33,9, com três algarismos significativos, que é o menor número de significativos das parcelas.

O máximo erro absoluto de uma soma ou diferença é igual à soma dos erros máximos

absolutos das parcelas. Por exemplo, tendo-se duas quantidades com precisões de 0,1 é lógico entender que a soma ou diferença destas quantidades são determinadas com precisão de 0,2, por que, na pior situação, os erros se somam. Quando há muitas parcelas, é improvável que todos os erros se somem. Nestes casos, usam-se métodos de probabilidade para estimar o erro da soma. Um critério é arredondar, desprezando-se o último algarismo significativo. Ou seja, quando todas as parcelas tiverem n algarismos significativos, dar o resultado com (n-1) algarismos significativos.

As regras da subtração são essencialmente as mesmas da soma. Deve-se tomar cuidado quando se subtraem dois números muito próximos, pois isso provoca um grande aumento do erro relativo.

Exemplo 4

(327,48 ± 0,01) - (326,91 ± 0,01) = (0,57 ± 0,02)

O erro relativo de cada parcela vale aproximadamente 0,01/300 = 0,003%.

O erro relativo do resultado vale cerca de (0,02/0,57) = 3,5%, que é mais de 1000 vezes maior que o erro relativo das parcelas.

Quanto mais à esquerda, mais significativo é o dígito. O dígito na coluna dos décimos é mais significativo que o dígito na coluna dos centésimos. O dígito na coluna das centenas é mais significativo que o dígito na coluna das dezenas .

O resultado da soma ou subtração não pode ter mais algarismos significativos ou dígitos depois da vírgula do que a parcela com menor número de algarismos significativos.

Multiplicação e Divisão Quando se multiplicam ou dividem dois

números com diferentes quantidades de dígitos corretos depois da vírgula decimal, o número correto de dígitos decimais do resultado deve ser igual ao menor dos números de dígitos decimais nos fatores.

Exemplo 5 Achar a área S do retângulo com

a = 5,2 m b = 43,1 m

É incorreto dizer que a área S = 224,12 m2. Na realidade,

a está entre 5,1 e 5,3 b está entre 43,0 e 43,2 Assim, a área S está contida entre 219,3 cm2 (5,1 x 43,0) 228,96 cm2 (5,3 x 43,2)

Page 30: Metrologia 7a

Sistema Internacional

20

Assim, os dígitos depois do segundo algarismo significativo são duvidosos e a resposta correta para a área é:

S = 2,2 x 102 cm2 O número de dígitos decimais corretos e o

máximo erro relativo indicam qualidades semelhantes ligadas com o grau de precisão relativa. A multiplicação ou divisão de números aproximados provocam a adição dos erros relativos máximos correspondentes.

No exemplo do cálculo da área do retângulo, o erro relativo de a (5,1) é muito maior que o de b ( 43,1) e por isso o erro relativo da área S é aproximadamente igual ao de a. S tem a mesma quantidade de algarismos significativos que a; ambos tem dois algarismos.

Se os fatores do produto são dados com quantidades diferentes de algarismos decimais corretos, deve-se arredondar os números antes da multiplicação, deixando um algarismo decimal reserva, que é descartado no arredondamento do resultado final. quando há mais que 4 fatores com igual número de dígitos decimais corretos (n), o resultado deve ter (n-1) dígitos decimais corretos.

Exemplo 6 Calcular o calor gerado por uma corrente

elétrica I percorrendo uma resistência R durante o tempo t, através de

Q = 0,24 I2 R t Como a constante (0,24) tem dois dígitos

decimais corretos, o resultado final só poderá ter dois dígitos depois da vírgula. Assim, não se justifica praticamente tomar valores de I, R e t com mais de três dígitos decimais corretos (o terceiro dígito já é o decimal reserva a ser descartado no final).

As constantes não afetam o número de dígitos decimais corretos no produto ou divisão. Por exemplo, o perímetro do círculo com raio r, dado pela expressão L = 2 π r, o valor de 2 é exato e pode ser escrito como 2,0 ou 2,000 ou como se quiser. A precisão dos cálculos depende apenas da quantidade de dígitos decimais da medição do raio r. O número π também é conhecido e a quantidade de significativos pode ser tomada arbitrariamente.

Exemplo 7 Calcular

D = 11,32 x 5,4 + 0,381 x 9,1 + 7,43 x 21,1

para estimar o valor das parcelas, calculam-se estas parcelas com o arredondamento correto.

Como 5,4 possui apenas dois algarismos significativos, tomam-se as parcelas com três algarismos (com um dígito decimal reserva) e arredonda-se o resultado final para dois algarismos significativos.

11,32 = 127,7 x 5,4 = 690 0,381 x 9,1 = 3,47 = 3 7,43 x 21,1 = 157 Resultado final = 850 Resultado correto: 8,5 x 102 O cálculo com dígitos desnecessários é

inútil e pode induzir a erros, pois podem dar a ilusão de uma precisão maior que a realmente existe.

Todos os graus de precisão devem ser coerentes entre si e em cada estágio dos cálculos. Nenhum dos graus de precisão deve ser muito menor ou maior do que o correto.

Exemplo 8 Seja

x = 215 y = 3,1

Calcular: x + y x - y x.y x/y y/x

determinando: 1. resultado calculado 2. limite superior calculado 3. limite inferior calculado 4. resultado final correto

Tab. 1.4. Resultados Operação Resultado Limite sup Limite inf Resultado

x + y 218,1 219,2 217,0 218 x - y 211,9 213,0 210,8 212 x.y 666,5 691,2 642,0 6,7x102 x/y 69,3548 72,0000 66,8750 69 y/x 0,01442 0,01495 0,01389 0,014

A quantidade x = 215 é definida por três

algarismos significativos de modo que o dígito 5 é o menos significativo e duvidoso. Como ele é incorreto por ±1, então o limite superior é 216 e o inferior é 214.

A quantidade y = 3,1 tem dois algarismos significativos e tem incerteza de ±0,1, variando entre 3,2 e 3,3. Os limites superiores mostrados na tabela são a soma dos limites inferiores de x e y. No resultado final, se deve considerar só um dígito duvidoso, e quando possível, com apenas dois dígitos significativos.

Page 31: Metrologia 7a

Sistema Internacional

21

Exemplo 9 Determinar a área de um quadrado com

lado de (10 ±1) metro. A área nominal do quadrado é igual a 100,

que é o produto de 10 x 10. Porém, a incerteza de ±1 metro em cada lado do quadrado é multiplicada pelo outro lado, de modo que a incerteza total da área do quadrado é de ±21 metros! Chega-se a este resultado multiplicando-se 10 ± 1 por 10 ± 1:

10 ± 1 10 ± 1 _____ 100 ± 10 ±10 ± 1 _________ 100 ± 20 ± 1

portanto

100 ± 21

ou mais rigorosamente (100 -19 + 21) m2. Outro modo de se chegar a este resultado é

considerar que cada lado de 10 ± 1 metro varia de 9 a 11 metros e por isso as áreas finais variam de um mínimo de 81 (9 x 9) e um máximo de 121 (11 x 11) e como a área nominal é de 100, o valor com a tolerância é de 100 - 19 (81) +21 (121).

Este exemplo é interessante pois é análogo ao cálculo da incerteza de uma grandeza que depende de duas outras grandezas. A incerteza da grandeza resultante é igual à derivada parcial da grandeza principal em relação a uma grandeza vezes a incerteza desta grandeza mais a derivada parcial da grandeza principal em relação a outra grandeza vezes a incerteza desta outra grandeza. Ou seja, em matemática, quando

z = f(x, y)

com x = x ± Δx y = y ± Δy a incerteza Δz é igual a

yfx

xfyz

∂∂

+∂∂

4.11. Algarismos e resultados Devem ser estabelecidas algumas regras

para determinar as incertezas para que todas informações contidas na expressão sejam entendidas universalmente e de modo consistente entre quem escreve e quem lê.

Como a quantidade δx é uma estimativa de uma incerteza, obviamente ela não deve ser estabelecida com precisão excessiva. Por exemplo, é estupidez expressar o resultado da medição da aceleração da gravidade g como

gmedida = 9,82 ± 0,0312 956 m/s2 A expressão correta seria gmedida = 9,82 ± 0,03 m/s2

Regra para expressar incertezas:

Incertezas industriais devem ser quase

sempre arredondadas para um único algarismo significativo.

Uma conseqüência prática desta regra é

que muitos cálculos de erros podem ser feitos mentalmente, sem uso de calculadora ou mesmo de lápis e papel.

Esta regra tem somente uma exceção importante. Se o primeiro algarismo na incerteza δx é 1, então é recomendável se manter dois algarismos significativos em δx. Por exemplo, se um cálculo resulta em uma incerteza final de δx = 0,14, um arredondamento para δx = 0,1 é uma redução proporcional muito grande de modo que é razoável reter dois algarismos significativos para expressar δx = 0,14. O mesmo argumento poderia ser usado se o primeiro número for 2, porém a redução não é tão grande (metade da redução se o algarismo fosse 1).

Assim que a incerteza na medição é estimada, os algarismos significativos do valor medido devem ser considerados. Uma expressão como

velocidade medida = 6 051,78 ± 30 m/s é certamente bem ridícula. A incerteza de 30 significa que o dígito 5 pode ser realmente tão pequeno quanto 2 ou tão grande quanto 8. Claramente, os dígitos 1, 7 e 8 que vem depois do 5 não tem nenhum significado prático. Assim, a expressão correta seria

velocidade medida = 6050± 30 m/s

Regra para expressar resultados O último algarismo significativo em qualquer expressão do resultado deve ser usualmente da mesma ordem de grandeza (mesma posição decimal) que a incerteza.

Page 32: Metrologia 7a

Sistema Internacional

22

Por exemplo, para uma expressão de resultado 78,43 com uma incerteza de 0,04 seria arredondada para

78,43 ± 0,04 Se a incerteza fosse de 0,4 então ficaria 78,4 ± 0,4 Se a incerteza fosse de 4, a expressão

ficaria 78 ± 4 Finalmente, se a incerteza fosse de 40,

seria 80 ± 40 Para reduzir incertezas causadas pelo

arredondamento, quaisquer números usados nos cálculos intermediários devem normalmente reter, no mínimo, um algarismo a mais do que o finalmente justificado. No final dos cálculos, faz o último arredondamento para eliminar o algarismo extra insignificante.

A incerteza em qualquer quantidade medida tem a mesma dimensão que a quantidade medida em si. Assim, escrevendo as unidades (m/s2, g/cm3, A, V, oC ) após o resultado e a incerteza é mais claro e mais econômico.

Exemplo densidade medida = 8,23 ± 0,05 g/cm3 ou densidade medida = (8,23 ± 0,05) g/cm3 Quando se usa a notação científica, com

números associados a potências de 10, é também mais simples e claro colocar o resultado e a incerteza na mesma forma.

Por exemplo: corrente medida = (2,54 ± 0,02) x 10-6 A

é mais fácil de ler e interpretar do que na forma:

corrente medida = 2,54 x 10-6 ± 2 x 10-8 A

Apostilas\Metrologia 2SistemsSI.DOC 22 SET 98 (Substitui 05 ABR 98)

Page 33: Metrologia 7a

23

2. Estatística da Medição Objetivos de Ensino

1. Apresentar os fundamentos de estatística aplicados à medição, como média, desvio, distribuição, flutuação, faixa de variação e intervalo.

2. Mostrar as expressões matemáticas e significados físicos das diferentes médias: aritmética, ponderada e geométrica.

3. Apresentar os diferentes tipos de desvio: desvio do valor médio, de população e da amostra.

4. Conceituar os parâmetros de medida da precisão: desvio padrão e variância. 5. Mostrar a distribuição normal e suas propriedades. 6. Apresentar os intervalos de confiança da medição. 7. Mostrar o tratamento das medidas com grandes desvios. 8. Conceituar o método de regressão para curvas de calibração.

1. Estatística Inferencial

1.1. Introdução A premissa básica da metrologia é:

nenhuma medição é sem erro. Ou na lógica positiva: toda medição possui erro. Por isso, nem o valor exato da medição e nem o erro associado com a medição pode ser conhecido exatamente. Na metrologia, como na física, existe o princípio desconfortável da indeterminação. As incertezas e os erros da medição devem ser tratados metodicamente para que as medições práticas tenham alguma utilidade e confiabilidade.

A confiabilidade da medição não depende somente das variações nas entradas controladas mas também das variações em fatores incontrolados e desconhecidos.

O operador é quem faz a medição e toma nota do resultado. Ele pode cometer erros grosseiros e acidentais nestas tarefas. O equipamento de suporte do instrumento de medição incluem outros instrumentos auxiliares. As condições de contorno do instrumento de medição podem influir no seu desempenho. Estas condições incluem a temperatura, umidade, pressão ambiente, vibração, choque mecânico, alimentação externa. O instrumento de medição é o elo mais importante de toda o sistema de medição. É ele que faz a medição e espera-se que ele não influa no valor da medição feita.

1.2. Conceito A ciência da estatística envolve a coleta,

organização, descrição, análise e interpretação de dados numéricos. A estatística é a parte da matemática que fornece um método organizado para manipular dados que apresentem variações aleatórias. A estatística revela somente a informação que já está presente em um conjunto de dados. Nenhuma informação nova é criada pela estatística. O tratamento estatístico de um conjunto de dados permite fazer julgamentos objetivos relacionados com a validade de resultados. A estatística permite olhar os dados de modos diferentes e tomar decisões objetivas e inteligentes quanto à sua qualidade e uso.

A metrologia usa estatística por vários objetivos:

1. entender, controlar e determinar os erros da medição

2. facilitar a coleta de dados adequados e confiáveis relacionados com a medição

3. entender e calcular melhor as incertezas associadas à medição

4. controlar a qualidade da mão de obra e dos materiais produzidos na indústria.

Os métodos estatísticos podem ser úteis para determinar

1. o valor mais provável de uma medição, a partir de um conjunto limitado de medições,

2. o erro provável de uma medição e 3. o valor da incerteza na melhor resposta

obtida. Um dado individual é imprevisível e

aleatório. Porém, grupos de dados aleatórios são previsíveis e determinísticos. Por exemplo,

Page 34: Metrologia 7a

Estatística da Medição

24

o lançamento de um único dado é aleatório e não determinístico. Qualquer um dos lados, 1-2-3-4-5-6, é igualmente provável. Porém, quando se lançam dois dados, a soma dos lados já é determinística e não aleatória. A soma 2 (1+1) ou 12 (6+6) é menos provável que a soma 7 (6+1, 5+2, 4+3).

A base da estatística na medição é a replicação, que é a tomada múltipla e repetida da medição em valores individuais da quantidade. Quando se faz apenas uma medição sujeita aos erros aleatórios, obtém-se pouca informação. Quando se fazem muitas medições repetidas da mesma quantidade, os erros aleatórios aparecem como um espalhamento em torno da média destas medições. O espalhamento é causado pelas variações da medição, que devem ser consideradas e pelas variações das características do sistema de medição, que devem ser eliminadas. As variações aleatórias podem ser uma conseqüência natural das experiências ou uma inevitável deficiência do sistema de medição das variações de processo e a estatística tem meios de identificar e separar estas causas.

O objetivo do tratamento estatístico não é o de eliminar a variabilidade das medições - o que é impossível - mas o de restringir esta variabilidade dentro de limites economicamente realizáveis e estabelecer graus de probabilidade de sua localização.

A análise estatística não melhora a precisão de uma medição. As leis da probabilidade usadas pela estatística se aplicam somente em erros aleatórios e não nos erros sistemáticos ou do operador. Assim, antes de fazer o tratamento estatístico dos erros aleatórios, deve-se cuidar de eliminar ou diminuir os erros sistemáticos e evitar os erros de operação.

A precisão de um instrumento que descreve a concordância entre várias medições replicadas pode ser medida através dos parâmetros estatísticos como desvio padrão, variância e espalhamento das medições.

Por exemplo, se um instrumento está com um erro de calibração de zero, um tratamento estatístico não removerá este erro. Porém, a análise estatística de dois métodos de medição diferentes pode demonstrar a discrepância entre eles.

A estatística descritiva usa tabelas, gráficos e métodos numéricos para resumir conjuntos de dados da população total ou de amostras.

A estatística inferencial pode 1. definir o intervalo em torno da média de

um conjunto dentro do qual a média da população deve estar, com uma dada probabilidade;

2. determinar o número de medições replicadas necessárias para garantir, com uma dada probabilidade, que uma média experimental caia dentro de um intervalo predeterminado em torno da média da população;

3. decidir se um valor distante no conjunto de resultados replicados deve ser mantido ou rejeitado no cálculo da média para o conjunto;

4. manipular os dados da calibração.

Fig. 2.1. Inferência estatística

1.3. Variabilidade da Quantidade As medições repetidas de um mesmo valor

exibem variações. Estas variações são causadas por diferenças em materiais, equipamentos, instrumentos, instalações, operações, condições, problemas, reações psicológicas e condições climáticas. Geralmente se tem muitas variações pequenas e poucas grandes variações (diagrama de Paretto).

Às vezes, ocorre uma variação não usual, maior que todas as outras, por uma ou pela combinação das seguintes causas:

1. material diferente da batelada, 2. novo ajuste do equipamento 3. nova calibração do instrumento de

medição 4. substituição do operador 5. jogo da seleção brasileira de futebol 6. festa de Carnaval, São João ou Natal. A experiência mostra que há diferenças

definidas detectáveis entre o padrão natural e o não natural. É possível descobrir e estudar estas diferenças por meio de cálculos simples baseados na estatística. Assim que se conhece o padrão natural, é possível encontrar as causas das anormalidades.

As medições de uma mesma variável do processo tendem a se agrupar em torno de um valor central, tipicamente a média aritmética,

Page 35: Metrologia 7a

Estatística da Medição

25

com uma certa variação de dispersão em cada lado. O padrão ou formato desenhado pelas medições agrupadas é chamado de distribuição da freqüência.

Se as causas que produzem as medições permanecem inalteradas, a distribuição tende a ter certas características estáveis, que se tornam ainda mais definidas quando se aumenta o número de medições. Se o sistema de causa é constante, a distribuição observada tende a se aproximar de um limite estatístico, segundo uma lei ou função de distribuição.

A experiência mostra que a distribuição e a flutuação estão relacionadas estatisticamente. A distribuição é uma massa composta de flutuações e a flutuação está confinada dentro dos limites de uma distribuição.

Com relação às distribuições e flutuações, pode-se dizer que

1. Tudo varia. 2. As coisas individuais são imprecisas. 3. Os grupos de coisas de um sistema

constante de causas tendem a ser previsíveis.

Por exemplo, 1. As pessoas vivem até diferentes idades. 2. Ninguém sabe quanto tempo ele viverá. 3. As companhias de seguro podem prever

com precisão a percentagem de pessoas que viverão até 50, 60, 70 e 80 anos.

Outro exemplo, 1. Ninguém escreve a letra a duas vezes

do mesmo modo. 2. Não se pode saber como o próximo a

será diferente do último. 3. O grafologista sabe reconhecer a letra

de uma pessoa.

2. População e Amostra Uma premissa básica da teoria da

probabilidade é que ela trata somente de eventos aleatórios. Um evento aleatório é aquele em que as condições são tais que cada membro da população tem uma chance igual de ser escolhido.

A população ou universo é o conjunto de todos os itens (produtos, indivíduos, firmas, empregados, preços, medições).

A amostra é uma parte da população, tirada aleatoriamente do universo de modo que o represente. A amostra deve ser aleatória, onde cada membro da população tem uma igual chance de ser selecionado. Embora a amostra seja representativa, ela não é uma réplica exata, em miniatura, da população de onde ela foi retirada. Isto é impossível de se conseguir e como resultado, há erros de amostragem. Estes erros devem ser minimizados ou então previstos, através de distribuições de amostras.

Trabalhar com amostras em vez de estudar a população total é uma técnica bem estabelecida e usada, resultando na vantagem de assumir um risco definido de aceitar uma pequena percentagem de alguns dados com não-conformidade em troca da grande redução do custo e do tempo de inspeção.

Muita inspeção de aceitação é por amostragem. Geralmente a inspeção de 100% é impraticável e antieconômica. Também, a qualidade do produto aceito pode realmente ser melhor com amostragem estatística do que a conseguida por inspeção de 100%. A amostragem tem vantagens psicológicas e menos cansaço dos inspetores. Muitos tipos de inspeção de 100% não eliminam todos os produtos fora de conformidade.

No caso de medições replicadas, quando se faz a computação estatística de um número muito elevado de dados (milhares), há uma alta probabilidade de se cometer erros na entrada de dados na calculadora ou no computador.

As leis da estatística se aplicam estritamente a uma população formada apenas de dados aleatórios. Para usar estas leis, deve-se assumir que o conjunto de dados que formam uma amostra representa a população infinita de resultados. Infelizmente, esta hipótese não é garantidamente válida. Como resultado, a estimativa estatística acerca do valor dos erros aleatórios também está sujeita a incerteza e por isso ela é expressa somente em termos de probabilidade.

Em qualquer decisão que se toma, baseando-se em poucos dados, corre-se o risco de que ela seja errada. Por exemplo, quando se sai de casa, carregando ou não um guarda-chuva, coletam-se certos dados: olha-se o céu, lê-se a previsão do tempo do jornal, escuta-se a televisão. Depois de avaliar rapidamente todos estes dados disponíveis, incluindo a previsão do rádio de "30% de probabilidade de haver chuva", toma-se uma decisão. De qualquer modo, faz-se o compromisso entre a inconveniência de carregar um guarda-chuva e a possibilidade de tomar uma chuva, sujando-se a roupa e pegando um resfriado. Neste exemplo, tomou-se uma decisão baseando-se na incerteza. A incerteza não implica falta de conhecimento, mas somente que o resultado exato não é completamente previsível.

Inferência estatística é o processo de se deduzir algo acerca de um universo baseando-se em dados obtidos de uma amostra retirada deste universo. Partindo-se dos parâmetros da amostra, calculados e obtidos mais facilmente, estimam-se as faixas onde devem estar estes mesmos parâmetros da população. Quando o tamanho da amostra aumenta, os valores dos

Page 36: Metrologia 7a

Estatística da Medição

26

parâmetros da amostra tendem para os valores dos parâmetros da população. Assim, a escolha do tamanho da amostra é um compromisso entre a facilidade dos cálculos (amostra muito pequena) e a validade dos valores (amostra muito grande). O tamanho conveniente da amostra depende de vários fatores, como: 1. desvio permitido entre o parâmetro e o valor

verdadeiro, 2. o grau de variabilidade da população

fornecido pela experiência anterior, 3. o risco assumido ou o grau de probabilidade

determinado. Na prática, amostra com n ≥ 20 é

considerada de bom tamanho e representativa do universo. Alguns autores consideram ideal n ≥ 30. Na prática, por conveniência, trabalha-se com amostras contendo cerca de 4 a 10 pontos, e aplicando a estatística t do Student, que compensa os erros das amostras pequenas.

A metodologia da inferência estatística envolve 1. o problema: estimativa dos parâmetros da

população (média e variância) com os dados disponíveis,

2. a solução: usa da informação da amostra para obter as estimativas, mesmo tendo de conviver com os erros da amostragem,

3. o resultado final: estimativa dos parâmetros da população e os graus de confiança associados.

3. Tratamento Gráfico Os dados estatísticos podem ser

apresentados e arranjados em tabelas e gráficos. O objetivo destes métodos é o de condensar a informação de uma grande quantidade de números, mostrando as características mais importantes dos dados.

Os dados consistem de números, que devem ser úteis e confiáveis. Para isso, é importante definir a fonte dos dados, qual o escopo do estudo, como eles são coletados, qual a sua exatidão e precisão, como são arredondados. Os dados podem mostrar propriedades físicas variáveis.

3.1. Distribuição de Freqüência O processo para construir uma matriz e

uma distribuição de freqüência é simples e direto. Os passos são os seguintes:

1. Coletar todos os dados disponíveis. 2. Arranjar os dados em uma matriz,

colocando-os em ordem crescente ou decrescente.

3. Determinar o número de classes ou células.

4. Determinar o intervalo de cada classe. 5. Agrupar os dados em classes ou células. 6. Construir um gráfico com as classes e os

números de dados para cada classe. 7. Construir a distribuição de freqüência. O número de grupos não pode nem ser

muito grande nem muito pequeno. Como regra, pode-se tomar a raiz quadrada do número dos dados, o que na prática, resulta em 5 a 15 grupos. Por exemplo, se há 100 dados, escolhem-se 10 classes ( 100 10= ). Quando o número não for exato, arredonda-se para o inteiro mais próximo; por exemplo, para 200 dados, usam-se 14 classes ( 200 14 1= , ). Os limites inferior e superior devem ser escolhidos de modo a não se ter superposições ou dados de fora.

O intervalo da classe pode ser determinado dividindo-se a diferença do maior dado pelo menor dado pelo número de classes.

Matematicamente, tem-se:

classes de númeroxx

= classe da Intervalo lh −

onde xh é o maior número da matriz xl é o menor número da matriz

Exemplo Para fixar idéias, será apresentado o

exemplo, onde se quer desenvolver uma controle de qualidade para a fabricação de lâmpadas de 100-watt. São tomados 50 registros de uma lote da produção e são feitos testes de falha das lâmpadas. A confiabilidade é medida em termos de horas para falhar. As confiabilidades são as seguintes:

Tab. 2.1. Dados completos 1983 2235 2414 2465 2510 2329 2414 2697 2567 2270 2321 2214 2130 2174 2553 2438 2356 2299 2238 2350 2450 2454 2452 2543 2544 2026 2237 2248 2643 2544 2326 2320 2293 2234 2343 2027 2175 2346 2438 2652 2420 2355 2362 2146 2124

Page 37: Metrologia 7a

Estatística da Medição

27

Tab.2.2. Dados em ordem crescente 1983 2235 2329 2414 2510 2026 2237 2343 2417 2544 2027 2238 2346 2420 2543 2124 2248 2350 2438 2564 2130 2270 2353 2438 2567 2146 2293 2355 2438 2565 2174 2299 2356 2450 2643 2175 2320 2362 2454 2652 2214 2321 2387 2452 2680 2234 2326 2414 2465 2697 Os dados agora devem ser agrupados em

classes ou células. O número adequado de classes é de

7 ( 50 7 1= , ). O intervalo da classe é calculado como:

Intervalo da classe = 2697 - 19837

102=

Assim, deveria se ter: maior dado = 2697 horas menor dado = 1983 horas faixa = 2697 - 1983 = 714 horas número de classes = 7 intervalo da classe = 102 Pode-se fazer alguns ajustes finos:

1. o intervalo da classe pode ser igual a 100, para facilitar os cálculos,

2. a primeira classe é de 1900 a 1999, 3. a segunda classe é de 2000 a 2099, 4. a terceira classe é de 2100 a 2199, ... 5. deve-se ter uma oitava classe, de 2600 a

2699 para acomodar os 4 últimos valores. À primeira vista se pensa que o intervalo é

de 99 e não de 100, porém como a contagem começa de 0, tem-se realmente 100 pontos contados entre 1900 e 1999.

Constrói-se agora a tabela com os números em cada intervalo de classe. O arranjo pode ser horizontal ou vertical. No arranjo horizontal, colocam-se as classes à esquerda e uma marca de contagem (X, ou marcas múltiplas de 5) para cada ponto em cada classe à direita. Tem-se

Tab. 2.3. Contagens

Horas Marcas de contagem 1900-1999 X 2000-2099 XX 2100-2199 XXXXX 2200-2299 XXXXXXXXX 2300-2399 XXXXXXXXXXXX 2400-2499 XXXXXXXXXXX 2500-2599 XXXXXX 2600-2699 XXXX

As marcas de contagem são convertidas em números, resultando na distribuição de freqüência absoluta.

Tab. 2.4. Distribuição da freqüência absoluta Horas Número de falhas 1900-1999 1 2000-2099 2 2100-2199 5 2200-2299 9 2300-2399 12 2400-2499 11 2500-2599 6 2600-2699 4

Pode-se obter as seguintes informações sobre a folha de distribuição de freqüência:

1. a menor taxa de queima da lâmpada é de de 1900 horas e a maior, de 2700,

2. a maioria das lâmpadas queima entre 2200 e 2500 horas,

3. a maior concentração de falhas é entre 2300 e 2399 horas.

Fazendo-se um gráfico (abcissa = horas de funcionamento até queimar da lâmpada; ordenada = freqüência), percebe-se o centro da distribuição (2350 horas) e como os valores se espalham em torno deste ponto central.

Se ainda se quer a distribuição da freqüência relativa, para prever o número de lâmpadas que iriam falhar dentro de um determinado intervalo, calcula-se a freqüência relativa, dividindo-se cada freqüência absoluta pelo número total de freqüências. O valor total da freqüência relativa é 1,0. A fórmula da freqüência relativa é:

sobservaçõe de total númerointervalo no sobservaçõe de número = relativa Frequência

No exemplo da lâmpada, a freqüência

relativa de falhas para o intervalo de classe de 2100-2199 é de 0,01 ou 10% (5/50).

Tab. 2.5. A freqüência relativa em cada intervalo de classe das confiabilidades das lâmpadas

Horas Falhas Freqüência

relativa 1900-1999 1 1/50 = 0,02 2000-2099 2 2/50 = 0,04 2100-2199 5 5/50 = 0,10 2200-2299 9 9/50 = 0,18 2300-2399 12 12/50 = 0,24 2400-2499 11 11/50 = 0,22 2500-2599 6 6/50 = 0,12 2600-2699 4 4/50 = 0,08

1,00

Page 38: Metrologia 7a

Estatística da Medição

28

3.2. Histograma Histograma é o gráfico da distribuição de

freqüência que ilustra os resultados obtidos da matriz e da folha dos resultados. Um gráfico comunica a informação mais facilmente que a análise numérica. Vendo o gráfico pode-se contar diretamente os dados em cada intervalo de classe e determinar o centro e o espalhamento dos dados da distribuição.

O histograma é um gráfico de barras que mostra os resultados da análise da distribuição da freqüência, comprimindo os dados em grupos lógicos.

O eixo horizontal dos x (abcissa) mostra os intervalos das classes e o eixo vertical dos y (ordenada) mostra a freqüência, absoluta ou relativa. Cada intervalo de classe tem um limite inferior e um limite superior. Geralmente o menor limite da primeira classe é abaixo do primeiro número e o limite maior da última classe é acima do último número da matriz.

3.3. Significado metrológico Quando se tem n medições, pode-se

quantizar estes n resultados em valores iguais ou dentro de uma classe de largura Δx. Plotando a freqüência das ocorrências (número de medições dentro das faixas) e os valores das medições, obtém-se um histograma, ou gráfico com barras. É interessante observar os tamanhos destas barras: no centro da curva estão as maiores freqüências correspondendo a valores próximos da média das medições. Ou seja, as medições se distribuem em torno do valor médio das medições, com maior quantidade de medições próximas da média e com poucas medições longe das médias.

Aumentando o número de medições e diminuindo a largura da faixa, o histograma se aproxima de uma curva continua, chamada de função de distribuição da densidade da probabilidade das amplitudes da medição de x.

Quando os erros são puramente aleatórios, os resultados das n medições sucessivas são espalhados em torno do valor verdadeiro, com a metade dos resultados acima e a outra metade abaixo do valor verdadeiro . Este valor verdadeiro é também chamado de valor médio.

Exemplo Sejam os 50 dados replicados obtidos na

calibração de uma pipeta de 10 mL (Tab. 2.6)..

Tab. 2.6. Dados da pipeta de 10 mL Dado

# Volume

, ml Dado

# Volume,

ml Dado

# Volume,

ml 1 9,988 18 9,975 35 9,976 2 9,973 19 9,980 36 9,990 3 9,986 20 9,994 37 9,988 4 9,980 21 9,992 38 9,971 5 9,975 22 9,984 39 9,986 6 9,982 23 9,981 40 9,978 7 9,986 24 9,987 41 9,986 8 9,982 25 9,978 42 9,982 9 9,981 26 9,983 43 9,977 10 9,990 27 9,982 44 9,977 11 9,980 28 9,991 45 9,986 12 9,989 29 9,981 46 9,978 13 9,978 30 9,968 47 9,983 14 9,971 31 9,985 48 9,980 15 9,982 32 9,977 49 9,983 16 9,983 33 9,976 50 9,979 17 9,988 34 9,983

A partir destes dados foram encontrados:

Volume médio = 9,982 ml Volume mediano = 9,982 ml Afastamento = 0,025 ml Desvio padrão = 0,0056 ml

A partir dos dados da Tab.2.6, pode-se elaborar uma outra tabela (Tab. 2.7) mostrando a distribuição da freqüência usando-se células com largura de 0,003 mL e calculando-se a percentagem de medições caindo em cada célula. Nota-se que 26% dos dados residem na célula contendo a média e a mediana de 9 982 mL e que mais da metade dos dados estão dentro de +- 0,004 mL.

Tab. 2.7. Freqüência dos dados da Tab. 2.6

Faixa volume, mL

Número na faixa

% na faixa

9 969 a 9 971 3 6 9.972 a 9 974 1 2 9 975 a 9977 7 14 9 978 a 9980 9 18 9 981 a 9983 13 26 9 984 a 9 986 7 14 9 987 a 9 989 5 10 9 990 a 9 992 4 8 9 993 a 9 995 1 2

Os dados da distribuição da freqüência da

Tab. 7 podem ser plotados em um gráfico de barras ou histograma. Pode-se perceber que quando o número de dados medidos aumenta, o histograma se aproxima da curva contínua da distribuição normal, gerada com um número infinito de dados.

Page 39: Metrologia 7a

Estatística da Medição

29

4. Médias Os dados podem ser reduzidos a um único

número, para fins de comparação. A média ou valor médio é o mais representativo de um conjunto de dados ou medições. A média é o valor esperado de uma quantidade medida do conjunto das medições tomadas. Valor esperado não é o valor mais provável. A média tende a ficar no centro dos dados quando eles são arranjados de acordo com as magnitudes e por isso a média é também chamada de tendência central das medidas. Quanto maior o número de medições feitas, melhor será o resultado. O valor médio é a expectativa matemática do conjunto dos dados.

Nas distribuições formadas pelos dados, quase sempre há uma tendência central destes dados. Esta tendência central, em torno da qual os dados se agrupam pode ser medida por algum tipo de média. As médias típicas são: média aritmética, ponderada, eficaz, geométrica, harmônica, mediana e moda.

Fig. 2.2. Histograma da Tab. 2.7

4.1. Média Aritmética A média mais usada é a aritmética, que é

calculada matematicamente como a soma de todas as medidas de um conjunto dividida pelo número total de medidas. A média aritmética de um conjunto de medidas é dada por:

x x x x xnm

n= =+ + +1 2 ...

onde xm = x = valor médio ou a média x1, x2, ... xn = valor de cada medição n = número de leituras. Também pode se escrever, de modo

abreviado:

xx

nm

ii

n

= =∑

1

Diz-se que a média é a somatória dos

valores de x, começando de i igual a 1 e terminando em n dividido por n. Σ é a letra grega Sigma.

É comum denotar a média como x (diz-se x barra), porém este símbolo é difícil de se obter em datilografia e por isso também se usa xm.

Quando se tem uma população com o número muito grande de dados (n tende para infinito), o símbolo da média é expresso como:

μ = → ∞=∑ x

n

ii

n

1 com n

Através do conceito dos mínimos quadrados

do erro pode-se demonstrar matematicamente que a média aritmética é a melhor estimativa do valor verdadeiro de um dado conjunto de medições.

O instrumentista deve sempre fazer de duas a cinco replicações de uma medição. Os resultados individuais de um conjunto de medições são raramente os mesmos e usa-se a média ou o melhor valor para o conjunto. O valor médio central é sempre mais confiável do que qualquer resultado individual. A variação nos dados deve fornecer uma medida da incerteza associada com o resultado central. A média serve como o valor central para um conjunto de medições replicadas.

A média de dados aleatórios não é mais aleatória mas é determinística. Por exemplo, a média das somas dos pontos obtidos pelo lançamento de dois dados é um número determinado igual a 7.

O valor médio tem as seguintes propriedades matemáticas práticas e úteis à metrologia: 1. a média é a melhor estimativa para um

conjunto de medições disponíveis. 2. a média tem a mesma dimensão das

medições e fica entre os valores mínimo e máximo das medições.

3. quando se multiplica uma variável aleatória por uma constante, sua média será multiplicada pela mesma constante.

4. a média da soma de duas variáveis aleatórias é a soma de suas médias.

5. se uma constante é somada à variável aleatória, a mesma constante é somada ao seu valor médio.

Page 40: Metrologia 7a

Estatística da Medição

30

6. a média do produto de duas variáveis aleatórias independentes é igual ao produto de seus valores médios.

7. mesmo que a distribuição dos valores seja simétrica, a distribuição da área não é simétrica, pois, se 5 está no meio de 0 e 10, mas 52 não está no meio de 02 e 102.

Exemplo As medições do valor do resistor dão:

52,3 Ω 51,7 Ω 53,4 Ω 53,1 Ω 80,0 Ω

O valor médio destas medições, desprezando o valor de 80,0 Ω que é grosseiro, vale 52,6 Ω.

R m =+ + +

=52 3 517 53 4 53 1

452 6, , , , , Ω

4.2. Raiz da Soma dos Quadrados Quando se tem dados com sinais positivos

e negativos e as suas influências se somam, não se pode tirar a média aritmética pois a soma algébrica dos dados cancelam seus valores. Por isso, inventou-se a média Raiz quadrada da Soma dos Quadrados (RSQ), que é dada pela expressão:

X x x xRSQ n= + + +( ... )12

22 2

Em metrologia, esta relação matemática

(algoritmo) é a mais usada para determinar o erro final resultante de vários erros componentes aleatórios e independentes entre si.

Em estatística, o desvio padrão (σ) é calculado através de uma relação que também envolve a raiz quadrada da soma dos quadrados dos desvios de cada medição (di). Tem-se

σ =+ + +( ... )d d d

nn1

222 2

5. Desvios Como ocorre com as médias, há também

vários tipos de desvios, embora o mais usado seja o desvio padrão.

5.1. Dispersão ou Variabilidade A medida do ponto central isolado não dá

uma descrição adequada dos dados experimentais. Deve-se considerar também a variabilidade ou espalhamento dos dados. Por exemplo, se alguém tem os pés na geladeira e

a cabeça no forno, pode-se dizer que a média da temperatura é boa, mas a sensação será horrível, por causa da grande faixa de espalhamento entre as duas temperaturas.

Por isso foram desenvolvidos outros parâmetros importantes de dados experimentais associados ao grau de espalhamento do conjunto de dados, como faixa, desvio médio, variância, desvio padrão, coeficiente de variação, desvio padrão ajustado.

5.2. Faixa (Range) A faixa ou espalhamento de um conjunto de

dados é a diferença entre o maior e o menor valor do conjunto. A faixa é o modo mais simples para representar a dispersão dos dados. As desvantagens associadas com a faixa como medida da dispersão são:

1. ela se baseia somente na dispersão dos valores extremos,

2. ela deixa de fornecer informação acerca do ajuntamento ou dispersão dos valores observados dentro dos dois valores extremos.

Mesmo assim, ela é empregada para se ter uma idéia aproximada da extensão dos valores espalhados dos dados disponíveis. Ela é fundamental nas cartas para o controle estatístico dos dados.

Por exemplo, para um conjunto de medições de um comprimento, em mm,

194, 195, 196, 198, 201, 203

o espalhamento é igual a 203 - 194 = 9 mm.

O desvio padrão para conjuntos com pequeno número de dados (N) pode ser rapidamente estimado multiplicando-se a faixa por um fator k (Tab. 2.8).

No conjunto anterior, o desvio padrão estimado pelo fator k da tabela (N = 6) é igual a 9 x 0,38 = 3,5. O desvio padrão calculo de modo convencional é igual a 3,6.

Tab. 2.8. Fatores para estimar desvio padrão

N k 2 0,89 3 0,59 4 0,49 5 0,43 6 0,39 7 0,37 8 0,35 9 0,34

10 0,32

Page 41: Metrologia 7a

Estatística da Medição

31

5.3. Desvio do Valor Médio O desvio é a diferença entre cada medida e

a média aritmética. O desvio do valor médio indica o afastamento de cada medição do valor médio. O valor do desvio pode ser positivo ou negativo. Os desvios das medidas x1, x2, ... xn da média aritmética xm são:

d1 = x1 - xm d2 = x2 - xm ... dn = xn - xm Teoricamente, a soma algébrica de todos os

desvios de um conjunto de medidas em relação ao seu valor médio é zero. Na prática, nem sempre ele é zero, por causa dos arredondamentos de cada desvio.

Para as medições da resistência acima,

Ri Rm di 52,3 52,6 -0,3 51,7 52,6 -0,9 53,4 52,6 +0,8 53,1 52,6 +0,5

Onde

Ri é o valor de cada resistência Rm é o valor médio das resistências di é o desvio de cada resistência A soma dos desvios não deu zero pois há

um erro de arredondamento, pois a média é de 52,63 aproximado para 52.6.

5.4. Desvio Médio Absoluto O grau de espalhamento em torno do valor

médio é a variação ou dispersão dos dados. Uma medida esta variação é o desvio médio. O desvio médio pode fornecer a precisão da medição. Se há um grande desvio médio, é uma indicação que os dados tomados variam largamente e a medição não é muito precisa.

O desvio médio é a soma dos valores absolutos dos desvios individuais, dividido pelo número de medições. Se fosse tomada a soma algébrica, respeitando os sinais, e não havendo erros de arredondamento, a soma seria zero.

O desvio médio absoluto é dado por:

[ ] [ ] [ ]n

x...xxD n21 +++=

Exemplo De novo, a resistência acima

Ri Rm di 52,3 52,6 -0,3 51,7 52,6 -0,9 53,4 52,6 +0,8 53,1 52,6 +0,5

O desvio médio absoluto é calculado

tomando-se os di em valor absoluto (positivo)

D =+ + +

= ≈0 3 0 9 0 8 0 5

40 67 0 7, , , , , , Ω

Para distribuições simétricas de freqüência, há uma relação empírica entre o desvio médio e o desvio padrão como:

desvio médio = 45

(desvio padrão)

5.5. Desvio Padrão da População O desvio médio de um conjunto de

medições é somente um outro método para determinar a dispersão do conjunto de leituras. O desvio médio não é matematicamente conveniente para manipular as propriedades estatísticas pois sua soma geralmente se anula e por isso o desvio padrão é mais adequado e útil para expressar a dispersão dos dados.

O desvio padrão de uma população, σ, é calculado raiz quadrada da média dos quadrados dos desvios individuais. Tem-se

σμ

=−∑ ( )x

ni

2

onde

(xi - μ) é o desvio da média da ia medição. n é o número de dados da população total. O desvio padrão pode expressar a precisão

do instrumento que fornece o conjunto de medições. Quando o desvio padrão (σ) é pequeno, a curva da probabilidade das amplitudes é estreita e o valor de pico é grande e as medições são feitas por um instrumento muito preciso. Quando o desvio padrão (σ) é grande, a curva da probabilidade das amplitudes é larga e o valor de pico é pequeno e as medições são feitas por um instrumento pouco preciso. Em qualquer caso, a área sob a curva é igual a 1, pois a soma das probabilidades é igual a 1.

Page 42: Metrologia 7a

Estatística da Medição

32

5.6. Desvio Padrão da Amostra O desvio padrão da amostra com pequeno

número de dados (n ≤ 20 ou para alguns, n < 30) ou desvio padrão ajustado é dado por:

)1n(

)xx(s

n

1i

2i

−=

∑=

Usa-se o denominador (n - 1) por que agora

se tem (n - 1) variáveis aleatórias e a na é determinada.

O desvio padrão usado para medir a dispersão dos dados sobre de uma lacuna que é sua polarização quando o número de dados é pequeno. Por exemplo, quando se tem somente uma medida, o valor do desvio se reduz a zero. Isto implica que a medição não tem dispersão e como conseqüência, não tem nenhum erro. Obviamente este resultado é altamente polarizado, quando se toma somente uma medição nos cálculos. Quando se tomam duas ou mais medições, a polarização no paramento diminui progressivamente até se tornar desprezível para n grande. Assim, o valor do desvio padrão é ajustado para dar uma estimativa não polarizada da precisão. Isto é conseguido dividindo-se a soma dos quadrados dos desvios por (n - 1) em vez de n. Diz-se que (n-1) é o número de grau de liberdade e n é o número total de observações. O número de graus de liberdade se refere ao número de dados independentes gerados de um dado conjunto e usados na computação.

Um conjunto com duas medições tem somente uma entrada útil com relação a estimativa da dispersão em torno da média da população, por que o conjunto deve fornecer informação acerca da dispersão e acerca da média. Assim, uma amostra de dois dados fornece só uma observação independente com relação à dispersão. Para uma amostra de 10 dados, pode-se ter 10 desvios. Porém, somente 9 são independentes, por que o último pode ser deduzido do fato que a soma dos desvios é igual a zero. Assim, um conjunto de n dados fornece (n - 1) observações independentes com relação ao desvio padrão da população. De um modo mais geral ainda, tem-se (n - m) graus de liberdade em um conjunto com n dados e m constantes.

Na população, quando m é desconhecido, duas quantidades podem ser calculadas de um conjunto cm n dados replicados, x e s. Um grau de liberdade é usado para calcular x , porque, retendo os sinais dos desvios, a soma

dos desvios individuais deve ser zero. Assim, computados (n - 1) desvios, o último desvio (no) fica conhecido. Como conseqüência, somente (n - 1) desvios fornecem medida independente da precisão do conjunto de medições. Em pequenas amostras (n < 20), quando se usa n em vez de (n - 1) para calcular s, obtém-se um valor menor do que o verdadeiro.

O desvio padrão das medições da resistência é de 0,8 Ω. Como ainda será visto, o valor da resistência deve estar entre o valor médio e uma tolerância de n desvios padrão. O n está relacionado com o nível de probabilidade associado. Assim, o valor da resistência é de 51,6 ± 0,8 (1s) Ω, com 68% de probabilidade ou 51,6 ± 1,6 (2s) Ω com 95% de probabilidade.

5.7. Fórmulas Simplificadas Ás vezes, é mais cômodo e rápido calcular

os desvios padrão da população e da amostra com fórmulas que envolvem somente a computação de xi

2 , xi2∑ e xi∑ . Estas

fórmulas são:

( )σ 2 =

− ∑∑ ( ) /x x nn

i i2 2

( )s

x x nn

i i22 2

1=

−∑∑ ( ) /

5.8. Desvios da população e da amostra

Como o desvio padrão da população envolve n e o desvio padrão da amostra envolve (n - 1), obtém-se facilmente a relação entre os dois desvios, como

s nn

=−

×1

σ

onde o fator n

n − 1 é conhecido como fator

de correção de Bessel. Quando n aumenta, o fator de Bessel se

aproxima de 1, e o s se iguala a σ. Na prática, para n ≥ 20, pode-se considerar s igual a σ. O desvio padrão da amostra é também chamado de desvio padrão ajustado.

Page 43: Metrologia 7a

Estatística da Medição

33

5.9. Desvio padrão de operações matemáticas

Para uma soma ou diferença, o desvio padrão absoluto da operação é a raiz quadrada da soma dos quadrados dos desvios padrões absolutos individuais dos números envolvidos na soma ou subtração. Ou seja, na computação de

y a s b s c sa b c= ± + ± − ±( ) ( ) ( ) o desvio padrão do resultado é dado por:

s s s sy a b c= + +2 2 2 Para a multiplicação e divisão, o desvio

padrão relativa da operação é a raiz quadrada da soma dos quadrados dos desvios padrão relativos dos números envolvidos na multiplicação e divisão. Ou seja, na computação de

y a bc

o desvio padrão relativo a y vale

sy

sa

sb

sc

y a b c=⎛⎝⎜

⎞⎠⎟ +

⎛⎝⎜

⎞⎠⎟ +

⎛⎝⎜

⎞⎠⎟

2 2 2

5.10.Coeficiente de variação Define-se como desvio padrão relativo a

divisão do desvio padrão absoluto pela média do conjunto de dados. O desvio padrão relativo é geralmente expresso em ppm (parte por mil), multiplicando-se esta relação por 1000 ppm ou em percentagem, multiplicando-se a relação por 100%. O coeficiente de variação (CV) é definido como o desvio padrão relativo multiplicado por 100%:

Como o valor médio está no denominador, não de pode usar o coeficiente de variação quando o valor médio se aproxima de zero.

CV (%) = desvio padrãovalor médio

× 100%

CV = ×σμ

100% , para toda a população

CV sx

= × 100% , para uma amostra

O coeficiente de variação é mais conveniente que o desvio padrão absoluto para medir a dispersão relativa de um conjunto de medições. Quando se quer comparar a variação de dois conjuntos separados de dados onde as unidades de medição não são as mesmas ou quando as unidade são as mesmas mas as variações são muito grandes.

Por exemplo, se uma amostra contem cerca de 50 mg de cobre e o desvio padrão é de 2 mg, o coeficiente de variação (CV) para esta amostra é de 2 mg/50 mg x 100%, ou seja, 4%. Para uma amostra contendo 10 mg, o CV é de 20%.

5.11. Desvio Padrão Das Médias Os números calculados da distribuição da

percentagem se referem ao erro provável de uma única medição. Quando se fazem n séries de medições replicadas, cada uma com N dados, e acham-se as médias de cada conjunto, estas médias também se espalham em torno de um valor médio e este espalhamento pode também ser expresso por um desvio padrão, chamado de desvio padrão das médias.

O desvio padrão da média de cada conjunto é chamado de erro padrão da média e é inversamente proporcional à raiz quadrada do número de séries replicadas de medições com N dados (N ≥ 20).

σσ

=n

De um modo análogo, tem-se para uma n amostras com N dados (N ≤ 20),

s sn

=

O desvio padrão das médias é uma melhor

estimativa da incerteza interna e é chamado também de erro padrão interno.

Pode-se notar que a distribuição normal das medições de uma amostra tem menor precisão que a correspondente distribuição normal da amostra das médias da população. A distribuição normal das médias tem um formato mais estreito e um pico maior que a distribuição normal de uma amostra.

Page 44: Metrologia 7a

Estatística da Medição

34

Fig. 2.3. Desvio padrão das médias Deve-se ter o cuidado para não confundir os

números envolvidos. É possível ter um conjunto com N dados (base de cálculo do desvio padrão do universo),

σμ

=−

=∑ ( )x

N

ii

N2

1

dos quais se tira uma amostra com k dados (base de cálculo do desvio padrão da amostra)

sx x

k

ii

k

=−

−=∑( )

( )

2

1

1

e se tira a média de um n conjuntos de dados (base de cálculo para o desvio padrão das n médias).

s sn

=

5.12. Variância A variância (V) é simplesmente o quadrado

do desvio padrão (s2). A variância também mostra a dispersão das medições aleatórias em torno do valor médio.

A unidade da variância é o quadrado da unidade das quantidades medidas.

A variância (s2) é definida para população muito grande (essencialmente infinita) de medições replicadas de x.

Tem-se

σ 2

2

1=−

=∑ ( )x x

n

ii

n

para grandes populações (n > 20) e onde n é o grau de liberdade da população. Tem-se, para pequenas populações (n < 20)

sx x

n

ii

n

2

2

1

1=

−=∑ ( )

( )

Enquanto a unidade do desvio padrão é a mesma dos dados, a variância tem a unidade dos dados ao quadrado. Mesmo com esta desvantagem, a variância possui as seguintes vantagens: 1. ela é aditiva, 2. ela não tem os problemas associados com

os sinais algébricos dos erros, 3. ela emprega todos os valores dos dados e é

sensível a qualquer variação no valor de qualquer dado,

4. ela é independente do ponto central ou do valor médio, por que ela usa os desvios em relação ao valor médio, 5. seu cálculo é relativamente mais simples.

Exemplo Sejam os dados obtidos de uma análise:

Tab. 2.9. Dados da análise química xi ppm Fe x xi − ( )x xi − 2

x1 19,4 0,38 0,1444 x2 19,5 0,28 0,0784 x3 19,6 0,18 0,0324 x4 19,8 0,02 0,0004 x5 20,1 0,32 0,1024 x6 20,3 0,52 0,2704

Efetuando-se os cálculos, chega-se a xi∑ = 118,7

( )x xi −∑ 2 = 0,6284

Média x = 118,7/6 = 19,78 ppm Fe

Desvio padrão s = ix

Variância s2 = 0,352 = 0,13 (ppm Fe)2

Desvio padrão relativo

xi = ppt 189,17100078,19

354,0≈=×

Coeficiente de variação

xi = 0 35419 78

100% 179 18%,,

, ,× = ≈

Erro absoluto Assumindo que o valor verdadeiro da amostra seja de 10,00 ppm Fe:

19,78 - 20,00 = 0,011 ppm Fe

Erro relativo

%10000,20

00,2078,19×

− = -1,1%

Page 45: Metrologia 7a

Estatística da Medição

35

6. Distribuições dos dados

6.1. Introdução A determinação de probabilidades

associadas com eventos complexos pode ser simplificada com a construção de modelos matemáticos que descrevam a situação associada com um evento particular específico. Estes modelos são a distribuição da probabilidade ou função probabilidade. A distribuição da probabilidade pode ser calculada a partir de dados de amostra retirada da população e também teoricamente.

Por causa de suas características, a distribuição da probabilidade está relacionada com as distribuições de freqüência. Porém, na distribuição de freqüência, as freqüências são números observados de eventos ocorridos e na distribuição da probabilidade, a freqüência é derivada da probabilidade de eventos que podem ocorrer.

6.2. Parâmetros da Distribuição A distribuição das freqüências mostra os

dados em formas e formatos comuns. Os números tem uma tendência de se agrupar e mostrar padrões semelhantes. Estes padrões podem ser identificados, medidos e analisados. Na análise dos dados de uma distribuição de freqüências há quatro parâmetros importantes: tendência central, dispersão, assimetria e kurtosis

Tendência central A tendência central é a característica que

localiza o meio da distribuição. A tendência central natural é a média dos pontos. As curvas podem ter diferentes simetrias e dispersões, mas a mesma tendência central. Também, pode-se ter curvas com a mesma simetria e mesma dispersão, mas com diferente tendência central.

Dispersão Dispersão é a característica que indica o

grau de espalhamento dos dados. A dispersão é também chamada de variação.

Assimetria (Skewness) Skewness é a característica que indica o

grau de distorção em uma curva simétrica ou o grau de assimetria. Uma curva simétrica possui os lados direito e esquerdo da lei de centro iguais. Os dois lados de uma curva simétrica são imagens espelhadas de cada lado. Uma curva se distorce para a direita quando a maioria dos valores estão agrupados no lado direito da distribuição.

Curtose (Kurtosis) A curtose (kurtosis) é a característica que

descreve o pico em uma distribuição. É uma medida relativa para comparar o pico de duas distribuições. Uma maior curtose significa um pico maior de freqüência relativa, não maior quantidade de dados.

Há três classes de curtose: platicúrtica (curva plana e esparramada), leptocúrtica (curva com pico estreito e alto) e mesocúrtica (intermediária entre as duas outras).

6.3. Tipos de distribuições Há três distribuições de probabilidade

usadas: 1. binomial 2. retangular 3. normal.

Distribuição Binomial A distribuição binomial se refere a variáveis

discretas e se aplica, principalmente, à contagem de eventos, onde as duas saídas possíveis podem ser sucesso ou falha, peça normal ou defeituosa. Sendo

n o número de tentativas, p a probabilidade de sucesso em cada

tentativa, q a probabilidade de falha em cada

tentativa, P(x) a probabilidade de se obter x sucessos, P x C p qx

n x n x( ) ( )( )= −

onde

)!xn(!x!nCn

x −=

Cxn é a combinação de n elementos tomados x

vezes n! é o fatorial de n, n! = n.(n-1)(n-2)...3.2.1

Para evitar os enfadonhos cálculos, principalmente quando n for grande, pode-se usar tabelas disponíveis na literatura técnica, onde se determina P(x) a partir de n, x.

Distribuição Retangular Na distribuição retangular os valores

possíveis são igualmente prováveis. Uma variável aleatória que assume cada um dos n valores, x1, x2, ...,xn com igual probabilidade de 1/n.

Em metrologia, os erros sistemáticos possuem distribuição retangular de probabilidade. Para qualquer valor da medição, ele é constante.

Page 46: Metrologia 7a

Estatística da Medição

36

Fig. 2.4. Distribuição retangular

6.4. Distribuição normal ou de Gauss

Conceito A distribuição normal é uma distribuição

contínua de probabilidade, fundamental para a inferência estatística e análise de dados. Sua importância vem dos seguintes fatos:

1. muitos fenômenos físicos e muitos conjuntos de dados seguem uma distribuição normal. Por exemplo, as distribuições de freqüência de alturas, pesos, leituras de instrumentos, desvios em torno de valores estabelecidos seguem a distribuição normal.

2. pode-se mostrar que várias estatísticas de amostras (como a média) seguem a distribuição normal, mesmo que a população de onde foram tiradas as amostras não seja normal.

3. mesmo a distribuição binomial tende para a distribuição normal, quando o número de dados aumenta muito. E os cálculos relacionados com a distribuição binomial são muito mais complexos que os empregados pela distribuição normal.

4. a distribuição normal possui propriedades matemáticas precisas e idênticas para todas as distribuições normais.

Fig. 2.5. Distribuição normal ou de Gauss

Relação matemática Quando se tem uma variável continua, a

função distribuição normal ou função de Gauss tem a seguinte expressão matemática,

envolvendo os números naturais 2, π e exponencial de e:

⎥⎥⎦

⎢⎢⎣

⎡⎟⎠⎞

⎜⎝⎛

σμ−

−πσ

=2x

21exp

21)x(F

A expressão matemática para uma amostra

pequena, tem-se:

F xs

x xs

( ) exp= −−⎛

⎝⎜⎞⎠⎟

⎣⎢⎢

⎦⎥⎥

12

12

2

π

Quando a variável for discreta, pode-se

construir a curva a partir dos dados. No eixo x, colocam-se os valores dos dados divididos em classes e no eixo y, o número de vezes que aparecem os dados. Quando o número de dados é muito grande (tendendo para infinito) e sujeito somente às variações aleatórias, os dados produzidos caem dentro da curva de distribuição normal. Os erros aleatórios de uma medição formam uma distribuição normal por que eles resultam da superposição mútua de uma grande quantidade de pequenos erros independentes que não podem ser considerados separadamente.

Características O formato de uma curva de distribuição de

probabilidade normal é simétrico e como um sino. A curva de distribuição deve ter as seguintes características: 1. simétrica em relação à média, indicando

que os erros negativos de determinado valor são igualmente freqüentes quanto os positivos,.

2. formato mostrando que ocorreram muitos desvios pequenos e poucos desvios grandes,

3. valor de pico máximo igual ao valor verdadeiro (exata) ou distante (não exata).

4. pontos de inflexão da curva são x x= ± σ 5. por causa da simetria da curva, a mediana

é igual à média e como a média ocorre no pico da densidade de probabilidade, ele também representa a moda. Tem-se média = moda = mediana.

6. o eixo x é uma assíntota da curva. 7. quando normalizada, a área total sob a

curva é igual a 1 englobando 100% dos eventos.

8. para o mesmo valor médio, a distribuição tem um pico estreito para pequenos valores do desvio padrão e é larga para grandes valores do desvio padrão. Como a área é sempre igual a 1, quando o formato for mais estreito, o pico é maior.

9. a equação do valor máximo da densidade de probabilidade vale:

1/A

A

Page 47: Metrologia 7a

Estatística da Medição

37

{ }p xmax

( ) ,= =

12

0 399πσ σ

10. a probabilidade que o valor médio x

fique entre um intervalo de x1 e x2 é a área debaixo da curva distribuição neste intervalo.

Aplicações Pode-se determinar a probabilidade de as

medições replicadas caírem dentro de determinada faixa em torno da média. Esta probabilidade serve como medida da confiabilidade da medição em relação aos erros aleatórios. Os limites de confiança servem para definir a faixa do erro aleatório da medição.

Para estabelecer se os erros aleatórios ou desvios se aproximam da distribuição de Gauss, são feitos testes de homogeneidade. Estes testes fornecem meios para

1. detectar se as diferenças entre os conjuntos de medições são devidas a uma razão real (sistemática) ou aleatória,

2. detectar uma chance em um característica de distribuição,

3. avaliar as diferentes medições, distinguindo as mais e menos confiáveis,

4. distinguir os erros dependentes e correlatos.

Área Sob a Curva de Erro Normal A área total sob a curva de distribuição

normal é 1, entre os limites -∞ e +∞ pois todos os resultados caem dentro dela. Independente de sua largura, tem-se 68,3% da área sob a curva do erro normal fica dentro de um desvio padrão (±σ) a partir da média. Ou seja, 68,3% dos dados que formam a população ficam dentro destes limites. Do mesmo modo, 95,5% de todos os dados caem dentro dos limites de ±2σ da média e 99,7% caem dentro de ±3σ.

Tab. 2.10 Limites para grandes populações

Limites Percentagem Probabilidade

±0,67σ 50,0 0,500 ±1,00σ 68,3 0,683 ±1,29σ 80,0 0,800 ±1,64σ 90,0 0,900 ±1,96σ 95,0 0,950 ±2,00σ 95,4 0,954 ±2,58σ 99,0 0,990 ±3,00σ 99,7 0,997

Por causa destas relações de área, o desvio padrão de uma população de dados é um ferramenta útil de previsão. Por exemplo, pode-se dizer há uma probabilidade de 68,3% que a incerteza de qualquer medição isolada não seja maior que ±1σ. Do mesmo modo, a chance é de 95,5% que o erro seja menor que ±2σ.

Fig.2. 6. Limites da distribuição

Distribuição Normal, Precisão e Exatidão A análise do formato da curva de

distribuição normal das medições pode mostrar a distinção entre exatidão e precisão. As medições de um instrumento muito preciso, quando pilotadas, dão uma curva de distribuição estreita e com o pico grande. As medições de um instrumento pouco preciso dão uma curva de distribuição larga e com o pico pequeno. Quando a largura aumenta, o valor do pico deve diminuir, porque a área sob a curva é igual a 1.

As medições muito exatas de um instrumento, quando pilotadas, dão uma curva de distribuição com o valor médio próximo do melhor valor estimado. Ou seja, a soma dos quadrados dos desvios dos dados de seus valores estimados é mínimo (princípio dos mínimos quadrados). Quando as medições são pouco exatas, a sua curva de distribuição tem o valor médio distante do melhor valor estimado. Ou seja, a soma dos quadrados dos desvios dos dados de seus valores estimados é maior que o mínimo.

Deste modo é possível ter quatro combinações de boa, ruim, precisão e exatidão.

As medições são muito exatas e o instrumento é muito preciso quando a curva é estreita, o pico é elevado e o valor médio é igual (ou próximo) do valor verdadeiro.

Page 48: Metrologia 7a

Estatística da Medição

38

Não preciso e não exato Não preciso e exato

Fig.2. 7. – Exatidão

As medições são pouco exatas e o instrumento é muito preciso quando a curva é estreita, o pico é elevado e o valor médio é distante do valor verdadeiro.

As medições são muito exatas e o instrumento é pouco preciso quando a curva é larga, o pico é baixo e o valor médio é igual (ou próximo) do valor verdadeiro.

As medições são pouco exatas e o instrumento é pouco preciso quando a curva é larga, o pico é baixo e o valor médio é distante do valor verdadeiro.

Preciso e não exato Preciso e exato

Fig.2. 8. Precisão

Distribuição Normal e Erro Provável Se um conjunto aleatório de erros em torno

de um valor médio é examinado, acha-se que sua freqüência de ocorrência relativa ao seu tamanho é descrita por uma curva conhecida como a curva de Gauss ou a curva do sino. Gauss foi o primeiro a descobrir a relação expressa por esta curva. Ela mostra que a ocorrência de pequenas desvios aleatórios da média são muito mais prováveis que grandes desvios. Ela também mostra que estes grandes desvios são muito improváveis.

O desvio padrão de uma distribuição normal 1. mede o espalhamento da medição em

uma dada entrada 2. tem a mesma unidade da medição 3. é a raiz quadrada da média da soma dos

quadrados dos desvios de todas as

medições possíveis da média aritmética verdadeira.

A curva também indica que os erros aleatórios são igualmente prováveis serem positivos e negativos. Quando se usa o desvio padrão para medir o erro, pode-se usar a curva para determinar qual a probabilidade de um erro ser maior ou menor que um certo valor σ para cada observação.

Pode-se calcular o erro provável quando se tem apenas uma medição. Como o erro aleatório pode ser positivo ou negativo, um erro maior que 0,675σ é provável em 50% das observações. Assim, o erro provável de uma medição é

e = ± 0,675 σ Assim, uma medição possui três partes:

1. um valor indicado 2. uma margem de incerteza ou erro ou

tolerância, que é o intervalo de confiança, expresso em ±nσ, onde n é uma constante e σ é o desvio padrão

3. uma probabilidade, que é a indicação da confiança que se tem quanto ao erro real estar dentro da margem de incerteza escolhida; p. ex., 99,73% quando se escolhe a margem de ±3σ.

Distribuição Normal Padrão Existe uma infinidade de curvas e funções

distribuição normal, diferentes de acordo com o valor da média central (μ) e do desvio padrão (σ). O desvio padrão para a população que produz a curva mais larga e com menor pico (B) é o dobro do desvio padrão da curva mais estreita com o pico maior (A). O eixo dos x das curvas é em afastamento da média em unidades de medição (x - μ).

Plotando as mesmas curvas, porém usando como abscissa o desvio da média em múltiplos de desvio padrão [(x-μ)/σ] obtém-se uma curva idêntica para os dois conjuntos de dados.

Qualquer distribuição normal pode ser transformada em uma forma padrão. Para fazer isso, a variável x é expressa como o desvio de sua média μ e dividida por seu desvio padrão σ, ou seja, muda-se a variável x para outra variável z dada por:

z x=

− μσ

Para uma amostra da população, tem-se

z x xs

≈−

Page 49: Metrologia 7a

Estatística da Medição

39

A variável z é o desvio da média dado em unidades de desvio padrão. Assim, quando

(x - μ) = σ, z é igual a um desvio padrão; Quando (x - μ) = 2σ, z é igual a dois desvios

padrão. Quando se tem uma particular destruição

normal de uma variável aleatória x, com uma dada média (μ) e desvio padrão (σ), achar a probabilidade de x cair dentro de um determinado intervalo é equivalente a encontrar a área debaixo da curva limitada pelo intervalo. Porém, pode-se achar diretamente esta área das tabelas de distribuição normal padrão.

A curva da distribuição normal padrão apresenta as seguintes propriedades:

1. A média ocorre no ponto central de máxima freqüência e vale zero (μ = 0).

2. O desvio padrão é igual a 1 (σ = 1). 2. Há uma distribuição simétrica de desvios

positivos e negativos em torno da média. 3. Há uma diminuição exponencial na

freqüência quando o valor dos desvios aumenta, de modo que pequenas incertezas são observadas muito mais freqüentemente que as incertezas grandes.

A estatística z é normalizada e sua expressão matemática vale

⎟⎟

⎜⎜

⎛−

π=

2

2z

e22)z(F

7. Intervalos Estatísticos O valor exato da média de uma população

de dados, μ, nunca pode ser determinado exatamente por que tal determinação requer um número infinito de medições. O que se faz é tirar uma amostra significativa da população, com n dados (n > 20) e achar a média aritmética dos dados desta amostra, μ. Na prática, usa-se uma amostra com (n < 20) e tem-se a média x . Nesta situação, a teoria estatística permite estabelecer limites em torno da média da amostra, x , e garantir que a média da população, μ, caia dentro destes limites com um dado grau de probabilidade. Estes limites são chamados de limites de confiança e o intervalo que eles definem é conhecido como o intervalo de confiança. Estes limites são determinados multiplicando-se o desvio padrão disponível (da população ou da amostra) por um fator de cobertura, f, que está associado com um grau de probabilidade, P%. Os limites de confiança definem um intervalo em torno da média da amostra que provavelmente contem a média da população total.

7.1. Intervalo com n grande (n > 20) Quando se tem n > 20, a média das

medições é μ e o desvio padrão é σ. A medição pode ser reportada como:

x f= ±μ σ (P%)

onde x é o valor da medição x é o valor médio das n medições f é o fator de cobertura associado a P% σ é o desvio padrão da população P% é a probabilidade Pode-se dizer, com uma probabilidade de

acerto de P% que a medição x se encontra entre os limites:

μ- fσ < x < μ + fσ Por exemplo, para uma probabilidade de

95%, o fator de cobertura é 2. Isto significa que quando se tem uma medição com n replicações, (n > 20) com desvio padrão σ e média μ, então a medição x pode ser reportada como

x = ±μ σ2 (95%)

ou μ - 2σ < x < μ + 2σ (95%)

7.2. Intervalo com n pequeno (n < 20) Quando a amostra tem um número pequeno

de dados, n < 20, a média μ se torna x , o desvio padrão σ se torna s, torna-se s. As equações passam para

x x fs= ± (P%)

ou

x - fs < x < x + fs Para o exemplo de probabilidade de 95%,

para a amostra (n ≤ 20) com média x , a medição pode ser reportada como

x x s= ± 2 (95%) x - 2s < x < x + 2s (95%)

Page 50: Metrologia 7a

Estatística da Medição

40

7.3. Intervalo com n pequeno (n < 10) Populações com n muito grande (n > 20)

requerem muito tempo para a computação de seus parâmetros e há uma grande probabilidade de enganos nos cálculos. É mais pratico e rápido trabalhar com populações com número pequeno de dados (n < 10), por exemplo 5 medições. Foram desenvolvidos métodos científicos para tornar mínimos os erros quando se manipulam amostras com pequeno número de dados.

Neste caso, o desvio padrão aumenta, pois ele é inversamente proporcional a n, e também a incerteza aumenta. Agora, o fator de cobertura é dado pelo t do Student, que é

x x ts= ±

ou

x - ts < x < x + ts (P%) t obtido de uma tabela que relaciona o seu valor, a probabilidade associada e o número de medições replicadas.

O parâmetro estatístico t é chamado de t do Student, por que Student foi o pseudônimo usado por W. S. Gosset, quando ele escreveu o artigo clássico, t, que apareceu na revista Biometrika, 1908, Vol. 6, Nr. 1. Gosset era empregado da Guinness Brewery e sua função era analisar estatisticamente os resultados da análise de seus produtos. Com o resultado de seu trabalho, ele descobriu o famoso tratamento estatístico de pequenos conjuntos de dados. Para evitar problemas com segredos profissionais, Gosset publicou o papel sob o pseudônimo Student.

A distribuição t-Student tem formato semelhante ao da distribuição normal, exceto que é mais achatada e se espalha mais progressivamente para valores pequenos de n. O teste t permite descobrir se toda a variabilidade em um conjunto de medições replicadas por ser atribuída ao erro aleatório.

Os valores de t caem muito rapidamente no início e depois caem lentamente. Aumentar o número de replicações da medição custa tempo e nem sempre o ganho é significativo. O número compromisso sugere três a quatro replicações

Tab. 2.11. Tabela Resumida de t

ν t50 t90 t95 t99 1 1,00 6,31 12,71 63,66 2 0,82 2,92 4,30 9,92 3 0,76 2,35 3,18 5,84 4 0,74 2,13 2,78 4,60 5 0,73 2,02 2,57 4,03 6 0,72 1,94 2,45 3,71 7 0,71 1,90 2,36 3,50 8 0,71 1,86 2,31 3,36 9 0,70 1,83 2,26 3,25 10 0,70 1,81 2,23 3,17 15 0,69 1,75 2,13 2,95 20 0,69 1,72 2,09 2,84 30 0,68 1,70 2,04 2,75 60 0,68 1,67 2,00 2,66 ∞ 0,68 1,64 1,96 2,58 ν = (n-1), grau de liberdade α = (1 - intervalo de confiança)

onde

tP é o coeficiente de confiança, obtido de tabelas, a partir do grau de liberdade (ν) e da probabilidade (P%).

O grau de liberdade (ν) é dado por n-1, onde n é o número de dados da amostra e a probabilidade (P).

Por exemplo, para 5 replicações (grau de liberdade 4), probabilidade de 95%, t vale 2,78 (Tab. 2.11) e se tem

2,78 s < x < 2,78 s

7.4. Intervalo para várias amostras Quando se tem n conjuntos de amostras

com N dados (N ≤ 20), então se obtém o desvio padrão das médias ( s x ) e o fator de cobertura pode ser menor, porque o desvio padrão das médias das amostras é mais confiável que o desvio de apenas uma amostra. Neste caso, divide-se o fator de cobertura, f, por n . Por exemplo, para probabilidade de P%, tem-se:

x fs

nx x f

sn

x x− < < + (P%)

Quando o número de dados de cada

amostra é pequeno, o fator de cobertura se torna o tP do Student e tem-se:

x x t snP= ± (P%)

Page 51: Metrologia 7a

Estatística da Medição

41

Exemplo Para o conjunto de medições abaixo,

determinar: 1. média 2. desvio padrão estimado 3. desvio padrão relativo percentual 4. como os dados devem ser relatados para

um nível de 99% de confiança? Medições Media Desvio

46,25 46,32 -0,07 46,40 46,32 +0,08 46,36 46,32 +0,04 46,28 46,32 -0,04

Respostas 1. Média

428,4636,4640,4625,46x +++

=

2. Desvio padrão estimado s = 0,0695 3. Coeficiente de variação

%15,0%10032,46

0695,0CV =×=

4. Probabilidade de 99%, tem-se α = 0,01 Grau de liberdade (4-1) = 3 Da tabela, tem-se t = 5,84 Então o melhor valor da média é

20,032,4640695,04,532,46 ±=

×±

8. Conformidade das Medições

8.1. Introdução Mesmo com métodos válidos, instrumentos

calibrados e procedimentos cuidadosos, ainda há erros aleatórios e longe da média. Não são sistemáticos nem aleatórios, mas grosseiros. Um dado com erro grosseiro é marginal (outlier). Quando se encontra um erro marginal, deve-se:

1. retira-lo do conjunto de dados 2. identifica-lo 3. dar razões para sua rejeição ou retenção,

p. ex., por um teste Q. Quando um conjunto de dados contem um

resultado marginal que difere excessivamente da média, a decisão que deve ser tomada é rejeitar ou reter o dado. A escolha do critério para rejeitar um resultado suspeito tem seus perigos. Se estabelece uma norma rigorosa que torna a rejeição difícil, corre-se o risco de reter resultados que são espúrios e tem um efeito indevido na média. Se estabelecem limites indulgentes na precisão e torna fácil a rejeição, provavelmente se jogará fora medições que certamente pertencem ao conjunto, introduzindo um erro sistemático aos dados. Infelizmente, não existe uma regra para definir a retenção ou rejeição do dado.

Fig. 2.9. Pontos suspeitos ou outliers

8.2. Teste Q No teste Q, o valor absoluto (sem

considerar o sinal) da diferença entre o resultado questionável e seu vizinho mais próximo é dividido pela largura de espalhamento do conjunto inteiro dá a quantidade Qexp

Qx x

wq n

exp =−

Page 52: Metrologia 7a

Estatística da Medição

42

Se Qexp > Qcrit, rejeite o dado questionável.

Se Qexp < Qcrit, retenha o dado questionável.

8.3. Teste do χ2 (qui quadrado) O teste de χ2 (lê-se qui quadrado) é usado

para verificar se um fenômeno observado se comporta como um modelo esperado ou teórico. Por exemplo, ele pode ser usado para comparar o desempenho de máquinas ou outros itens. A vida útil de lâmpadas, localizações da linha de centro de furos em placas, localizações de tiros de artilharia e missões de bombardeio seguem a distribuição χ2.

Quando se obtém um conjunto de medições, assume-se que as medições são uma amostra de alguma distribuição conhecida, por exemplo, a normal. Para comparar as diferentes partes da distribuição observada, subdividem-se os dados em um número de n classes e determina-se a freqüência observada em cada classe. Depois, estima-se a freqüência esperada de cada classe, assumindo que a distribuição está de conformidade com a distribuição original, por exemplo, a normal, através dos seguintes passos: 1. calcule o valor médio e o desvio padrão, 2. para cada intervalo da classe, assuma uma

variável normal padrão zh e zl para os limites superior e inferior, respectivamente,

3. da tabela da distribuição normal, determine as probabilidades da função entre (0 e zh) e (0 e zl).Os valores dependem se é tomado apenas um lado ou os dois lados da curva.

4. a soma dos valores acima dá a probabilidade no dado intervalo, se o limite superior estiver entre (0 e +∞) e o limite inferior estiver entre (0 e -∞) e vice-versa. A diferença dos valores acima dá a probabilidade se os dois limites cairem ou entre (0 e +∞) ou (0 e -∞),

5. multiplique a probabilidade da distribuição em um dado intervalo de classe pelo número total de observações para obter a freqüência esperada de ocorrências da variável neste intervalo,

6. como a soma das freqüências esperadas em todas as classes não é necessariamente igual ao numero total de observações, pois os arredondamentos devidos à interpolação na tabela das probabilidades provocam pequenas diferenças, usa-se um fator de correção para fazer a soma das freqüências

esperadas igual ao número de observações.

7. a partir das freqüências esperadas em várias classes, determina-se o parâmetro χ2 pela equação

χ ν(n-m)2 =

=∑ ( )f f

fe o

eii

n1 1

2

1

onde

n é o número de valores que são somados para produzir o valor de χ2

m é o número de constantes usadas no cálculo das freqüências esperadas

(n - m) é o grau de liberdade, com índice ν. fe1, fe2, ...fen são as n freqüências

esperadas, fo1, fo2, ...fon são as n freqüências

observadas Pode também se falar de uma distribuição χ

2, definida como:

( )O EE

i i

i

−⎡

⎢⎢

⎥⎥∑

2

onde

Oi é a freqüência da ocorrência observada no io intervalo de classe

Ei é a freqüência da ocorrência esperada no io intervalo de classe , baseada em uma hipótese ou distribuição.

O objetivo é determinar se as freqüências observadas e esperadas estão próximas o suficiente para se concluir se elas são provenientes de mesma distribuição de probabilidade.

O numerador da expressão de χ2 representa os quadrados dos desvios entre as freqüências esperadas e observadas nas n classes e é sempre positivo. Estes valores são normalizados em cada classe, dividindo-os pela respectiva freqüência esperada de cada classe.

A mesma ordem de desvio nas freqüências esperadas e observadas causa relativamente maior contribuição no parâmetro χ2 nas extremidades da curva dos dados normalmente distribuídos, em comparação com os valores próximos do valor médio da curva. Isto é explicado pelo fato de os valores relativamente grandes das freqüências esperadas próximas do valor médio dos dados estarem no denominador de χ2.

Para evitar que as contribuições anormalmente grandes no parâmetro χ2 quando as freqüências esperadas forem pequenas, deve-se reagrupar as várias

Page 53: Metrologia 7a

Estatística da Medição

43

classes, de modo que a freqüência esperada em cada classe não seja menor que 5.

Se a distribuição da amostra está de conformidade com a distribuição teórica assumida, deve-se ter χ2 = 0. Quanto maior o valor de χ2, maior é a discordância entre a distribuição esperada e os valores observados. Quanto maior o valor de χ2, menor é a probabilidade que a distribuição observada satisfaça a distribuição observada. Deste modo, o parâmetro χ2 é muito útil na análise estatística dos dados, para avaliar a validade dos dados.

Para a aplicação do teste do χ2, 1. determine o valor de χ2 para os dados

disponíveis 2. determine os valores dos graus de

liberdade F que é igual a (n - m), 3. determine a probabilidade de a medição

real estar de conformidade com a distribuição esperada a partir das tabelas de χ2 ou do diagrama χ2 - F.

Exemplo Os coeficientes de atrito entre o vidro e a

madeira foram medidos no laboratório com uma técnica livre de erros sistemáticos. Os dados obtidos são:

Tab. 2.13 - Coeficientes e freqüência

Coeficiente Freqüência observada 0,44-0,46 3 0,46-0,48 10 0,48-0,50 12 0,50-0,52 16 0,52-0,54 10 0,54-0,56 6 0,56-0,58 3

Determinar se os valores dos coeficientes

de atrito seguem a distribuição normal ou não. Os valores do teste χ2 até o nível de 10%.

Solução 1. Determinação do valor médio e do desvio

padrão: x = 0,51 s = 0,03062

2. Usando a tabela da Distribuição Normal, determinam-se as probabilidades entre os intervalos das diferentes classes.

Tab. 2.14 - Tabela de freqüências

# Classe foi zl zh P(zl) P(zh) P(Δz) fei 1 0,44-0,46 3 -2,178 -1,525 0,485 0,4364 0,0489 2,99 2 0,46-0,48 10 -1,525 -0,872 0,436 0,3084 0,1280 7,83 3 0,48-0,50 12 -0,872 -0,219 0,308 0,0864 0,2217 13,57 4 0,50-0,52 16 -0,219 0,434 0,086 0,1678 0,2545 15,57 5 0,52-0,54 10 0,434 1,088 0,167 0,3617 0,1939 11,87 6 0,54-0,56 6 1,088 1,741 0,361 0,4592 0,0975 5,97 7 0,56-0,58 3 1,741 2,394 0,459 0,4952 0,0360 2,20

Na tabela acima, as freqüências esperadas

da primeira e última classe são menores que 5 e por isso elas devem ser combinadas com as classes adjacentes para fazê-las maiores que 5 e obtém os seguintes cálculos:

Tab. 2.15 - Freqüências # foi fei foi-fei (foi-fei)

2/fei 1 13 10,82 2,18 0,439 2 12 13,57 -1,57 0,182 3 16 15,57 0,43 0,012 4 10 11,87 -1,87 0,295 5 9 8,17 8,83 0,084 Total: 1,012

Obtém-se χ2 = 1,012

O número de grau de liberdade F é (n-m).

No problema, o número de termos que são somados para dar χ2 é n = 5. O número m é igual ao número de quantidades obtidas das observações que são usadas no cálculos das freqüências esperadas. No problema, m = 3, porque há três quantidades: número total de observações, o valor médio e o desvio padrão dos dados que são usados no cálculo das freqüências esperadas, então F = 5 - 3 = 2

Para 2 graus de liberdade, o valor de χ2 ao nível de 10% de probabilidade do χ2, da tabela, tem-se 4,605. Como o valor de χ2 = 1,012 não é muito grande e como a probabilidade P(χ2) = 0,62 (obtida da curva onde χ2 =1,012 e F = 2) está entre 0,1 e 0,9, resulta que os dados devem ser aceitos ou que os dados estão conforme a distribuição normal.

8.4. Teste de Chauvenet O teste de Chauvenet estabelece que uma

leitura pode ser rejeitada se a probabilidade de se obter um desvio particular da média é menor que 1/2n, onde n é o número de observações. A tabela dá o valor do desvio do ponto para média que deve ser excedido para rejeitar este ponto. Assim que todos os pontos espúrios são rejeitados, calcula-se uma nova média e um novo desvio padrão para a amostra.

Page 54: Metrologia 7a

Estatística da Medição

44

Tab. 2.16. Rejeição de espúrios pelo critério de Chauvenet

Observações dmax/σ 2 1,15 3 1,38 4 1,54 5 1,65 6 1,73 7 1,80 10 1,96 15 2,13 25 2,33 50 2,57 100 2,81

dmax é o desvio máximo aceitável σ desvio padrão da população

8.5. Outros Testes Existem vários outros testes estatísticos

para fornecer critérios para rejeição ou retenção de outliers. Como o teste Q, estes outros também assumem que a distribuição dos dados da população seja normal. Infelizmente, esta condição não pode ser aprovada ou reprovada para amostras que tenham muito menos que 50 resultados. As regras estatísticas que são confiáveis para distribuição normal de dados devem ser usados com extremo cuidado, quando aplicadas a amostras com poucos dados.

A aplicação cega de testes estatísticos para determinar a rejeição ou retenção de uma medição suspeita em um pequeno conjunto de dados não é provavelmente mais confiável do que uma decisão arbitrária. A aplicação de bom julgamento baseado na experiência e conhecimento do processo envolvido é um enfoque válido. Enfim, a única razão válida para rejeitar um resultado de um pequeno conjunto de dados é a certeza que foi cometido um erro no processo da medição. Deve-se ter cautela para rejeitar um dado, por qualquer razão.

8.6. Conformidade (goodness of fit) Os critérios estatísticos para verificar se um

conjunto de dados está de conformidade com as distribuições teóricas assumidas são:

1. se os valores de probabilidade no teste χ2 caem entre 0,1 e 0,9, então a distribuição observada segue a distribuição assumida, ou seja, não há razão de duvidar da hipótese. Em certos casos, o limite inferior da probabilidade χ2, chamado de nível de significância, pode ser reduzido para 0,05.

2. se o valor da probabilidade no teste χ2 está abaixo do limite inferior prescrito,

então o resultado é significante e os dados da amostra são considerados inteiramente diferentes da distribuição assumida. Neste caso, o parâmetro χ2 é muito grande.

3. Se o valor de χ2 é muito pequeno e próximo de zero, então a probabilidade pode exceder o limite superior de 0,9. Embora isso seja difícil de se encontrar, na prática, quando ocorrer, os dados são considerados suspeitosamente bons.

8.7. Não-Conformidades As recomendações para o tratamento de um

pequeno conjunto de resultados que contem um valor suspeito são:

1. Reexaminar cuidadosamente todos os dados relacionados com o outlier para ver se um erro grosseiro afetou seu valor.

2. Se possível, estimar a precisão que pode ser razoavelmente esperada para estar seguro que o resultado suspeito realmente é questionável.

3. Repetir a análise, se for possível. A concordância ou discordância entre o dado novo e o original suspeito serve para manter ou rejeitar o dado suspeito.

4. Se não se tem nenhum dado adicional, aplicar o teste Q ao conjunto existente para ver se o resultado duvidoso deve ser retido ou rejeitado em base estatística.

5. Se o teste estatístico indicar a retenção, considerar a mediana no lugar da média do conjunto. A mediana tem a grande virtude de permitir a inclusão de todos os dados em um conjunto sem influência indevida de um valor suspeito.

Apostilas\Metrologia 2Estatística.DOC 24 SET 98 (Substitui 01 ABR 98)

Page 55: Metrologia 7a

45

3. Quantidades Medidas

Objetivos de Ensino 1. Conceituar as quantidades físicas quanto a energia e propriedades: intensivas ou

extensivas, variáveis ou constantes, continuas ou discretas, mecânicas ou elétricas, dependentes ou independentes.

2. Apresentar os conceitos e notação da função e da correlação. Mostrar a função linear. 3. Listar as sete quantidades físicas de base e as duas complementares, mostrando seus

conceitos, unidades e padrões. 4. Listar as quantidades físicas derivadas mais comumente encontrada na Engenharia, de

natureza mecânica, elétrica, química e de instrumentação, mostrando seus conceitos, unidades, padrões e realização física.

1. Quantidade Física

1.1. Conceito Quantidade é qualquer coisa que possa ser

expressa por um valor numérico e uma unidade de engenharia. Como exemplos,

1. massa é uma quantidade física expressa em kilogramas;

2. velocidade é uma quantidade física expressa em metros por segundo e

3. densidade relativa é uma quantidade física adimensional.

O círculo não é uma quantidade física, pois é caracterizado por uma certa forma geométrica que não pode ser expressa por números. O círculo é uma figura geométrica. Porem, a sua área é uma quantidade física que pode ser expressa por um valor numérico (p. ex., π, 5) e uma unidade (p. ex., metro quadrado).

Muitas noções que antes eram consideradas somente sob o aspecto qualitativo foram recentemente transferidas para a classe de quantidade, como eficiência, informação e probabilidade.

1.2. Valor da quantidade O valor é uma característica da quantidade

que pode ser definida quantitativamente. O valor é também chamado de dimensão, amplitude, tamanho. Para descrever satisfatoriamente uma quantidade para um determinado objetivo, os valores de interesse devem ser identificados e representados numericamente. Cada valor é medido e

expresso em unidades. A unidade tem um tamanho relativo e subdivisões que são diferentes entre os diversos sistemas de medição.

Pode-se somar ou subtrair somente quantidades de mesma dimensão e unidade, sendo a unidade do resultado igual à unidade das parcelas. Pode-se multiplicar ou dividir quantidades de quaisquer dimensões e a dimensão do resultado é o produto ou divisão das parcelas envolvidas.

É possível se ter quantidades adimensionais ou sem dimensão. Geralmente são definidas como a divisão ou relação de duas quantidades com mesma dimensão; o resultado é sem dimensão ou adimensional. Uma quantidade adimensional é caracterizada completamente por seu valor numérico. Exemplo de quantidade adimensional é a densidade relativa, definida como a divisão da densidade de um fluido pela densidade da água (líquidos) ou do ar (gases). Em instrumentação há vários números adimensionais úteis como número de Reynolds, Mach, Weber, Froude. O valor numérico da quantidade, associado à unidade também é adimensional. Por exemplo, no comprimento 10 metros (10 m), 10 é um número adimensional e metros é a unidade de comprimento usada, cujo símbolo é m.

1.3. Classificação das Quantidades As quantidades possuem características

comuns que permitem agrupá-las em diferentes classes, sob diferentes aspectos.

Quanto aos valores assumidos, as quantidades podem ser variáveis ou constantes, contínuas ou discretas.

Page 56: Metrologia 7a

Quantidades Medidas

46

Sob o ponto de vista termodinâmico, as variáveis podem ser intensivas ou extensivas. Em outras palavras, elas podem ser variáveis de quantidade ou de qualidade.

Com relação ao fluxo de energia manipulada, as variáveis podem ser pervariáveis ou transvariáveis.

Sob o ponto de vista de função, as variáveis podem ser independentes ou dependentes.

Obviamente, estas classificações se superpõem; por exemplo, a temperatura é uma quantidade variável contínua de energia intensiva, transvariável; a corrente elétrica é uma variável continua de quantidade, extensiva e pervariável.

Para se medir corretamente uma quantidade é fundamental conhecer todas as suas características. A colocação e a ligação incorretas do medidor podem provocar grandes erros de medição e até danificar perigosamente o medidor.

Na elaboração de listas de quantidades do processo que impactam a qualidade do produto final é também necessário o conhecimento total das características da quantidade.

Energia e Propriedade As variáveis de quantidade e de taxa de

variação se relacionam diretamente com as massas e os volumes dos materiais armazenados ou transferidos no processo. As variáveis extensivas independem das propriedades das substâncias. Elas determinam a eficiência e a operação em si do processo. As variáveis de quantidade incluem volume, energia, vazão, nível, peso e velocidade de maquinas de processamento.

As variáveis de energia se relacionam com a energia contida no fluido ou no equipamento do processo. Elas podem determinar indiretamente as propriedades finais do produto e podem estar relacionadas com a qualidade do produto. Elas deixam de ser importantes assim que os produtos são feitos. Elas independem da quantidade do produto e por isso são intensivas. As variáveis de energia incluem temperatura e pressão.

As variáveis das propriedades das substâncias são especificas e características das substâncias. Todas as grandezas especificas são intensivas. Por definição, o valor especifico é o valor da variável por unidade de massa. Por exemplo, energia especifica, calor especifico e peso especifico. As principais variáveis de propriedade são: a densidade, viscosidade, pH, condutividade elétrica ou térmica, calor especifico, umidade absoluta ou relativa, conteúdo de água, composição química, explosividade, inflamabilidade, cor, opacidade e turbidez.

Extensivas e Intensivas O valor da variável extensiva depende da

quantidade da substância. Quanto maior a quantidade da substância, maior é o valor da variável extensiva. Exemplos de variáveis extensivas: peso, massa, volume, área, energia.

O valor da variável intensiva independe da quantidade da substância. Em um sistema com volume finito, os valores intensivos podem variar de ponto a ponto. Sob o ponto de vista termodinâmico, as variáveis de energia e das propriedades das substâncias são intensivas, porque independem da quantidade da substância. Exemplos de variáveis intensivas: pressão, temperatura, viscosidade, densidade e tensão superficial.

Pervariáveis e Transvariáveis Uma pervariável ou variável através

(through) é aquela que percorre o elemento de um lado a outro. Uma perváriável pode ser medida ou especificada em um ponto no espaço. Exemplos: força, momento, corrente elétrica e carga elétrica.

Uma transvariável ou variável entre dois pontos (across) é aquela que existe entre dois pontos do elemento. Para medir ou especificar uma transvariável são necessários dois pontos no espaço, usualmente um ponto é a referência. Exemplos: deslocamento, velocidade, temperatura e voltagem.

Todos os objetos em um sistema dinâmico envolvem uma relação medida ou definida entre uma transvariável e uma pervariável. Por exemplo, o capacitor, resistor e indutor elétricos podem ser definidos em termos da relação entre a transvariável voltagem e a pervariável corrente.

Variáveis e Constantes A variável de processo é uma grandeza que

altera seu valor em função de outras variáveis, sob observação ao longo de um tempo. Constante ou variável constante é aquela cujos valores permanecem inalterados durante o tempo de observação e dentro de certos limites de precisão.

Por exemplo, seja um tanque cheio de água. A pressão que a coluna de água exerce em diferentes pontos verticais é variável e depende da altura. Porem, ao mesmo tempo, a densidade da água pode ser considerada constante, com um determinado grau de precisão, em qualquer ponto do tanque. Diz-se, então, que a pressão da água é uma quantidade variável em função da altura liquida e a densidade da água é uma quantidade constante em função da altura liquida e do tempo.

Page 57: Metrologia 7a

Quantidades Medidas

47

Pode-se considerar incoerente chamar uma constante de variável. Porem, uma quantidade constante é um caso especial de uma quantidade variável. A constante é a variável que assume somente um valor fixo durante todo o tempo. Como, na prática sempre há uma variabilidade natural em qualquer grandeza, deve-se estabelecer os limites de tolerância, dentro dos quais a grandeza se mantém constante.

Em instrumentação, raramente se mede continuamente uma constante. Como ela é constante, basta medi-la uma única vez e considerar este valor em cálculos ou compensações. Por exemplo, a diferença de altura do elemento sensor e do instrumento receptor influi na pressão exercida pela coluna líquida do tubo capilar. Esta altura é definida pelo projeto, mantida na instalação e considerada na calibração. Ela não é medida continuamente, porem, quando há alteração de montagem, o novo valor da altura é considerado na calibração do instrumento.

O objetivo do controle de processo é o de manter constante uma variável ou deixá-la variar dentro de certos limites.

Parâmetro é uma quantidade constante em cada etapa da experiência, mas que assume valores diferentes em outras etapas. Deve-se escolher os parâmetros mais significativos entre as várias características do processo. Por exemplo, quando se faz uma experiência para estudar o comportamento da pressão de líquidos em um tanque, usando-se líquidos com densidades diferentes entre si, a densidade, constante para cada liquido e diferente entre os líquidos, é chamada de parâmetro.

Contínuas e Discretas Variável contínua é aquela que assume

todos os infinitos valores numéricos entre os seus valores mínimo e máximo. Na natureza, a maioria absoluta das variáveis é continua; a natureza não dá saltos. Uma variável contínua é medida. Exemplo de uma variável contínua: a temperatura de um processo que varia continuamente entre 80 e 125 oC.

Variável discreta é aquela que assume somente certos valores separados. Na prática, as variáveis discretas estão associadas a eventos ou condições. Uma variável discreta é contada. Por exemplo, uma chave só pode estar ligada ou desligada. O número de peças fabricadas é um exemplo de variável discreta.

Mecânicas e Elétricas As quantidades mecânicas são as

derivadas do comprimento, massa, tempo e temperatura. São exemplos de quantidades mecânicas:

1. área e volume que dependem apenas do comprimento.

2. velocidade e aceleração que envolvem comprimento e tempo.

3. força, energia e potência que envolvem massa, comprimento e tempo

4. freqüência que depende apenas do tempo.

A produção contínua de eletricidade se tornou realidade com a invenção da pilha por Volta, em 1800. A análise dos circuitos elétricos começou em 1827, quando George Simon Ohm descobriu a relação entre voltagem, corrente e resistência. Nesta época as unidades destas grandezas ainda não eram estabelecidas. Os valores de corrente eram medidos com um arranjo de agulha compasso e bobina. Os valores da tensão elétrica eram estabelecidos em termos de potencial de uma pilha voltaica específica. Os valores de resistência eram estabelecidos em termos da resistência de um comprimento particular de fio de ferro com um diâmetro específico.

Era evidente a necessidade de um sistema universal de unidades no campo elétrico, relacionadas com as unidades mecânicas já estabelecidas, como comprimento massa e tempo. Em 1832, Karl Friedrich Gauss mediu a intensidade do campo magnético da terra em termos de comprimento, massa e tempo. Em 1849, Wilhelm Kohlraush mediu a resistência em termos destas unidades. Wilhelm Weber, em 1851, introduziu um sistema completo de unidades elétricas baseado em unidades mecânicas. Estes princípios de Weber formam a base do sistema atual de medições elétricas. Em 1861, a Associação Britânica para o Avanço da Ciência introduziu o ohm padrão, baseado no fio de liga platina-prata.

As unidades elétricas SI derivadas podem ser definidas em função de quantidades mecânicas.

O volt (V), unidade de diferença de potencial e força eletromotriz, é a diferença de potencial entre dois pontos de um fio condutor percorrido por uma corrente constante de 1 A, quando a potência dissipada entre estes pontos é igual a 1 W.

O ohm (Ω), unidade de resistência elétrica, é a resistência elétrica entre dois pontos de um condutor quando uma diferença de potencial constante de 1 V aplicada a estes pontos produz no condutor uma corrente de 1 A, o condutor não sendo fonte de qualquer força eletromotriz.

Page 58: Metrologia 7a

Quantidades Medidas

48

O coulomb (C), unidade de quantidade de eletricidade, é a quantidade de eletricidade transportada em 1 s por uma corrente de 1 A.

O farad (F), unidade de capacitância, é a capacitância entre as placas do capacitor onde aparece uma diferença de potencial de 1 V quando é carregado por uma quantidade de eletricidade de 1 C.

O henry (H), unidade de indutância elétrica, é a indutância de um circuito fechado em que uma força eletromotriz de 1 V é produzida quando a corrente elétrica varia uniformemente à taxa de 1 A/s.

O weber (Wb), unidade de fluxo magnético, é o fluxo que, ligando um circuito de uma volta produz nele uma força eletromotriz de 1 V se for reduzido a zero em uma taxa uniforme de 1 s.

O tesla (T) é a densidade de fluxo de 1 Wb/m2.

As principais variáveis envolvidas na indústria de processo são quatro: temperatura (grandeza de base), pressão (mecânica), vazão volumétrica ou mássica (mecânica) e nível (mecânica). Em menor freqüência, são também medidas a densidade (mecânica), viscosidade (mecânica) e composição (química). Porem, na instrumentação, são manipulados os sinais pneumático (20 a 100 kPa) e eletrônico (4 a 20 mA cc). Por causa da instrumentação eletrônica, as quantidades elétricas como voltagem, resistência, capacitância e indutância se tornaram muito importantes, pois elas estão ligadas naturalmente aos instrumentos eletrônicos de medição e controle de processo e de teste e calibração destes instrumentos.

1.4. Faixa das Variáveis

Faixa e Largura de Faixa Os limites mínimo e máximo definem a faixa

(range) de operação do sistema. A faixa de operação da entrada é definido como estendendo de xmin até xmax. Esta faixa define sua largura de faixa de entrada (span), expressa como a diferença entre os limites da faixa

ri = xmax - xmin De modo análogo, a faixa de operação da

saída é especificada de ymix para ymax. A largura de faixa da saída ou fundo de escala de operação é expressa como:

ro= ymax - ymin

Por exemplo, a faixa de temperatura de um ambiente pode ser de 15 a 30 oC. A largura de faixa vale 15 oC; (30 - 15 oC = 15 oC). A faixa de temperatura de -15 a 30 oC tem largura de faixa de 45 oC; [30 - (-15) oC = 45 oC].

A faixa de medição sempre vai de 0 a 100%, porem o 0% pode ser igual ou diferente de zero. A terminologia das faixas é a seguinte:

0 a 100 oC - faixa normal 10 a 100 oC - faixa com zero suprimido -10 a 100 oC - faixa com zero elevado O conceito de faixa com zero elevado ou

suprimido é particularmente importante na calibração de transmissores de nível.

Limites de Faixa É importante evitar extrapolação além da

faixa da calibração conhecida durante a medição pois o comportamento do sistema de medição não é registrado nesta região. A faixa de calibração deve ser cuidadosamente escolhida e deve ser consistente com a faixa de operação do sistema de medição.

Na prática, uma variável pode ter limites de operação normal e limites de operação anormal. Os limites de operação normal são aqueles assumidos pela variável quando não há problemas no controle automático do processo. Quando há falhas no controle automático e estes limites são atingidos, geralmente existem alarmes que chamam a atenção do operador para assumir o controle manual do processo. O operador deve levar os valores da variável novamente para dentro dos limites de operação normal, atuando manualmente nos instrumentos e equipamentos do processo. Quando, por motivos de falha em algum equipamento ou instrumento da malha de controle automático, a variável continua se afastando dos limites de operação normal, geralmente são estabelecidos outros limites de desligamento (trip ou shut down). Quando a variável atinge os valores de desligamento, todo o processo é desligado, para proteger o operador ou os equipamentos envolvidos.

Há variáveis que podem assumir valores negativos e positivos, em função do processo e da unidade usada. Por exemplo, a pressão manométrica pode ter valores positivos e negativos (vácuo). Porem, a pressão absoluta só pode assumir valores positivos. A temperatura na escala Celsius pode assumir valores negativos ou positivos; porem, a temperatura absoluta ou termodinâmica só pode assumir valores positivos, em kelvin.

Page 59: Metrologia 7a

Quantidades Medidas

49

Faixa e Desempenho do Instrumento Em Metrologia, é importante se conhecer a

faixa calibrada do instrumento e o seu ponto de trabalho, pois tipicamente, a precisão do instrumento é expressa ou em percentagem do fundo de escala ou em percentagem do valor medido.

O instrumento com erro de zero e de largura de faixa possui precisão expressa em percentagem do fundo de escala. Por exemplo, a medição de vazão com placa de orifício tem incerteza expressa em percentagem da vazão máxima medida ou do fundo de escala.

Instrumento com erro devido apenas à largura de faixa possui precisão expressa em percentagem do valor medido. Por exemplo, transmissor inteligente de pressão diferencial, turbina medidora de vazão.

1.5. Função Matemática

Conceito A função é uma regra ou lei de acordo com

a qual os valores da variável independente correspondem aos valores da variável dependente. A função é a lei de correspondência entre os valores das variáveis. A função é uma relação causal. Podem existir regras para determinar o valor da variável dependente para cada valor do argumento sem relação matemática conhecida. Por exemplo, a temperatura ambiente varia ao longo de um dia ou de um ano, de modo aleatório e imprevisível.

As variáveis podem ser independentes ou dependentes de outras variáveis. As variáveis independentes podem se alterar arbitrariamente e são também chamadas de argumentos. Variáveis dependentes tem valores determinados pelos valores de outras variáveis independentes e são também chamadas de funções.

Por exemplo, a área do círculo S S = π r2 r é a variável independente ou argumento S é a variável dependente ou função. As funções podem depender de um único

argumento (área do círculo em função do raio) ou de dois ou mais argumentos. Por exemplo, a pressão de gás com massa constante, p

p = RT/V

depende da temperatura (T) e do volume do gás (V) e R é uma constante física.

Notação Quando y é função genérica de x, tem-se: y = f(x)

onde x pode assumir certos valores particulares.

Quando a função é conhecida, pode-se ter: y = ax + b (linear)

onde a e b são parâmetros constantes arbitrários.

Uma função matemática pode ser representada por:

1. fórmula analítica 2. tabela de valores 3. gráfico. Domínio ou definição da função é a

totalidade dos valores que a variável independente pode assumir.

função pode ser contínua ou discreta. A função é continua quando a variação gradual do argumento resulta em variação gradual da função, sem pulos. A função é discreta quando ela possui pontos de descontinuidade. A função pode ser periódica, quando se repete em intervalos definidos. A função pode ser constante, quando assume um único valor. A função pode assumir valores múltiplos e ser sempre crescente ou decrescente.

Função Linear Na prática, a função linear é muito

interessante e comum. A forma geral de uma função linear é:

y = ax + b onde

y é a função x é o argumento a e b são parâmetros constantes.

A representação gráfica de uma função linear é uma linha reta, onde

a é a inclinação da reta b é o ponto onde a reta corta o eixo y -b/a é o ponto onde a reta corta o eixo x A linearidade é um dos parâmetros da

precisão do instrumento. Ser linear é conveniente pois,

1. dois pontos (ou um ponto e uma inclinação) são suficientes para determinar uma reta e como conseqüência, bastaria calibrar dois únicos pontos de uma reta de calibração,

2. é fácil se fazer interpolação e extrapolação de pontos.

Quando se tem uma relação não-linear é comum e conveniente linearizá-la, através da função matemática inversa. Por exemplo, na medição da vazão com placa de orifício, onde a

Page 60: Metrologia 7a

Quantidades Medidas

50

pressão diferencial gerada pela placa é proporcional ao quadrado da vazão que se quer medir, usa-se o extrator de raiz quadrada para tornar linear a relação entre a pressão diferencial e a vazão.

O incremento de uma função linear é diretamente proporcional ao incremento do argumento:

Δy = k Δx Esta propriedade do incremento é a base da

interpolação linear. Suponha que se conheçam os valores de uma função y = f(x) para x = xo e x = (xo + h):

f(xo) = yo (fxo + h) = y1

mas os valores para a função y para x entre x0 e (x0 + h) sejam desconhecidos. A função pode ser substituída por um segmento de reta que

1. assuma mesmos valores para x0 e (x0 + h)

2. substitua a função por uma linha reta entre x0 e (x0 + h)

y y y yh

x xoo

o= +−

−1 ( )

Tal substituição é possível e válida no caso da função f(x) diferir levemente da função linear no intervalo entre xo e (xo + h). A interpolação é usada, na prática, em tabelas com pequenos intervalos e quando os sucessivos valores da função diferem levemente entre si. A extrapolação linear se processa de modo semelhante.

Correlação Correlação é a relação entre duas variáveis

aleatórias que não é função determinística. Por exemplo, a relação entre o peso e a altura das pessoas é uma correlação. O peso não depende unicamente da altura da pessoa. Se o peso fosse função apenas da altura, todas as pessoas mais altas seriam mais pesadas que as mais baixas. Mas, na realidade, pessoas de mesma altura tem pesos diferentes e pessoas com alturas diferentes podem ter pesos iguais. Mesmo com tantas exceções, há uma correlação entre a altura e o peso das pessoas, e de um modo geral, as pessoas mais altas pesam mais que as pessoas mais baixas.

Outro exemplo, é a correlação entre o ato de fumar e a duração da vida das pessoas. Quando se diz que o fumo reduz a duração da vida de uma pessoa, também há um correlação ou dependência correlativa, porque, embora haja muitas exceções, experimentalmente se verifica que a vida média dos não fumantes é

maior do que a dos fumantes, quando se considera a distribuição da probabilidade da duração da vida.

Define-se como coeficiente de correlação a medida da interdependência entre duas variáveis. O coeficiente varia continuamente entre +1 e -1, passando pelo valor zero intermediário. Quando o coeficiente é zero, não há correlação entre as duas variáveis e elas são totalmente independentes. O coeficiente de correlação +1 indica uma correlação positiva perfeita, quando uma variável é linear e diretamente proporcional a outra; quando uma aumenta a outra também aumenta. O coeficiente de correlação -1 indica uma correlação negativa perfeita, onde uma variável é inversamente proporcional a outra; quando uma aumenta a outra diminui linearmente.

Deve-se distinguir claramente entre a relação determinística (função matemática), onde não há exceção alguma e a dependência correlativa (correlação), onde há muitas exceções que contradizem a relação, mas que não afetam a validade geral da inferência de probabilidade.

2. Quantidades de Base do SI As unidades SI são divididas em três

classes: 1. unidades de base 2. unidades suplementares 3. unidades derivadas

As sete grandezas de base possuem os seguintes nomes (unidades), dimensão:

1. comprimento (metro), L 2. massa (kilograma), M 3. tempo (segundo), T 4. temperatura (kelvin), Θ 5. corrente elétrica (ampere), I 6. quantidade de matéria (mol), N 7. intensidade luminosa (candela), J. As grandezas de base eram anteriormente

chamadas de grandezas fundamentais. As sete unidades base foram selecionadas pela CGPM ao longo do tempo e para atender as necessidades dos cientistas em suas áreas de trabalho. As primeiras quantidades definidas eram de natureza mecânica. Depois se definiu a grandeza elétrica (corrente), a termodinâmica (temperatura), luminosa (intensidade luminosa) e a química (quantidade de matéria).

Há três quantidades totalmente independentes: massa, comprimento, tempo. Somente a massa tem um padrão material. Hoje, pesquisa-se para se reduzir as unidades a duas independentes: massa e tempo. As unidades de base são bem definidas e independentes dimensionalmente.

Page 61: Metrologia 7a

Quantidades Medidas

51

As duas unidades suplementares foram adicionadas na 11a CGPM (1960).

1. ângulo plano (radiano) 2. ângulo sólido (esterradiano). Como a CGPM deixou de chamá-las de

base ou derivadas, elas são consideradas suplementares. Foram levantadas questões acerca da razão destas unidades não serem adotadas como de base. Por analogia, elas poderiam ser consideradas como de base. Tab. 3.1 - Grandezas e Unidades de Base SI

Quantidade Física Unidade Símbolo

Comprimento metro m Massa kilograma kg Tempo segundo s Temperatura kelvin K Corrente elétrica ampere A Intensidade luminosa candela cd Quantidade de substância mol mol

Em 1980, a CIPM decidiu, para manter a

coerência interna do SI, considerar as unidades radiano e esterradiano como unidades derivadas sem dimensão.

As unidades derivadas são aquelas formadas pelas relações algébricas entre as unidades de base, suplementares e outras derivadas.

A classificação das unidades SI em três classes é arbitrária e não é realmente importante para usar e entender o sistema. As três classes de unidades formam um sistema de medição coerente, pois o produto ou quociente de qualquer quantidade com múltiplas unidades é a unidade da quantidade resultante.

2.1. Comprimento

Introdução O comprimento é uma grandeza de base

cujo símbolo é L. Na prática, o comprimento vem em outros parâmetros, como variação relativa (m/m), área (m2), volume (m3), ângulo (m/m), velocidade (ms-1) e aceleração (ms-2).

A medição de comprimento pode ser de valor absoluto e relativo. A medição do comprimento absoluto requer um padrão definido; para medir comprimento relativo o padrão não é fundamental. É diferente medir o comprimento de uma estrutura em termos absolutos e medir a variação da estrutura provocada por uma tensão mecânica.

Experimentalmente se percebe que o espaço pode ser descrito em termos de três parâmetros de comprimento (x, y, z). Três

coordenadas são suficientes para descrever a posição de um ponto no espaço. Restringindo-se o grau de liberdade mecânica, define-se a posição. Para medir a posição ao longo de uma reta definida, basta um comprimento. Para plotar a posição em um plano definido são necessários dois sensores. Estes conceitos são muito importantes em robótica, pois um robô é um controlador de posição.

Unidades A unidade SI de comprimento é o metro,

com símbolo m. A etimologia da palavra metro é metron,

grego, que significa medir e este termo foi usado pela primeira vez em 1670, pelo padre matemático Gabriel Mouton (1618-1694), que definiu 1 metro como 1/10 000 000 da distância entre o Equador e o Polo Norte da Terra.

Em 1790, Laplace definiu o metro pelo mesmo procedimento, porem usou múltiplos de 10, dividindo o ângulo reto em 100 graus (em vez de 90) e o grau em 100 minutos (em vez de 60) e 1000 metros eram a distância de 1 minuto deste grau na superfície da Terra. Usando o mesmo procedimento, porem, com o ângulo reto de 90 graus e o grau com 60 minutos, 1000 metros seriam equivalentes a uma milha náutica, ou seja, o metro valeria 1,853 184 metros atuais. Posteriormente, o metro foi definido de modo a ser igual a 1/10 000 000 da distância do Polo Norte ao Equador, ao longo do meridiano da terra passando por Dunquerque, França e Barcelona, Espanha, duas cidades ao nível do mar e no paralelo 45o. Desse modo, a circunferência da terra tem aproximadamente 40 000 000 m. O metro atual é aproximadamente igual ao wand, unidade padrão de comprimento criada no Egito em 3500 A.C., para medir a variação do nível do Rio Nilo, para fins de coleta de água e irrigação.

Na 1a CGPM (1889) o metro foi definido como o padrão físico constituído de uma barra de platina (90%) e irídio (10%), que era considerado o Metro Protótipo Internacional.

Fig. 3.1. Corte da barra do Metro Protótipo Internacional

Page 62: Metrologia 7a

Quantidades Medidas

52

A 7a CGPM (1927) definiu o metro como a distância entre dois traços gravados sobre a barra de platina iridiada, apoiada sobre dois rolos de, no mínimo, 10 mm de diâmetro, situados simetricamente num mesmo plano horizontal à distância de 571 mm um do outro, a 0o C e à pressão atmosférica normal . Pela comparação física das linhas desta barra com um protótipo secundário se consegue uma exatidão dentro de 2 partes em 107

A 11a CGPM (1960) substituiu o padrão físico do metro por padrão de receita. O metro foi definido como o comprimento igual a 1 650 763,73 vezes o comprimento de onda da radiação de transição entre as linhas laranja vermelha, níveis 2p10 e 5d5 do espetro do átomo de Kr-86, no vácuo. Esta definição tem problemas, o principal é que este número somente é conseguido por extrapolação, pois não é possível estender uma quantidade exata de ondas alem de alguns 20 centímetros. Para se obter o número requerido de comprimentos de onda para um metro, várias medições individuais eram feitas por sucessão e adicionadas. Este procedimento de medição, por sua natureza, aumenta a probabilidade de erro. Mas, a despeito destas limitações, a exatidão está dentro de 2 partes em 108.

A 17a CGPM (1983) redefiniu o metro como a distância percorrida pela luz, durante a fração de 1/299 792 458 de um segundo, no vácuo. Esta nova definição dá uma exatidão 10 vezes melhor que a da técnica com Kr-86, cerca de 2 partes em 10-9.

Na prática industrial, raramente se exige este grau de exatidão, porem deve-se ter uma margem adequada para compensar a perda de incerteza toda vez que os padrões são transferidos para um aparato mais conveniente. O valor da velocidade da luz, c, igual a 299 792 458 ms-1 é o resultado de padrões numéricos escolhidos para o tempo e comprimento. Assim, o valor da velocidade da luz não é uma constante fundamental. Os padrões de tempo (com incerteza de 10-14) são mais reprodutíveis em termos de incerteza que os de comprimento (incerteza de 10-8), de modo que, se a velocidade da luz é definida como um número fixo, então, em princípio, o padrão tempo servirá como um padrão de comprimento, desde que exista um aparato conveniente para converter tempo para comprimento através da velocidade da luz.

A realização do metro recomendada pela 17a CGPM (1983) é obtida por um dos seguintes métodos:

1. através do comprimento L do trajeto percorrido por uma onda eletromagnética plana, no vácuo, durante um intervalo de tempo t (L = ct) ou

2. através do comprimento de onda no vácuo de uma onda eletromagnética de freqüência f (L = c/f).

A realização mais prática do metro é pela medição do comprimento da radiação 630 nm do laser hélio neon estabilizado por iodo, que dá uma precisão de 3 partes em 1011. Os padrões secundários são calibrados por interferometria, com precisão de 10-9.

As outras unidades de comprimento usadas incluem o milímetro, centímetro, kilômetro e micrômetro. Estes múltiplos e submúltiplos servem para selecionar prefixos que sejam múltiplos de 1000.

O uso do milímetro (mm) é comum em desenhos mecânicos. Os valores expressos em milímetros devem ser números inteiros, a não ser que a precisão requeira dígitos depois da vírgula.

O centímetro é usado apenas em medidas não técnicas e em produtos de consumo. Também é usado em unidades derivadas, como pressão (kgf/cm2), condutividade (S/cm).

Fig. 3.2. Régua metálica para medição de

comprimentos com pequena precisão

Fig. 3.3. Paquímetro para medir pequenas dimensões

Fig. 3.4. Micrômetro para medir pequenas

dimensões com maior precisão que o paquímetro

Page 63: Metrologia 7a

Quantidades Medidas

53

Em grandes distâncias, usa-se o kilômetro, onde não se usam mais que três dígitos depois da vírgula. Em pequenas distâncias, como em acabamento mecânico e física, pode-se usar o micrômetro (μm) e o nanometro (nm) para números mais exatos.

Padrões e Calibração O padrão de comprimento era uma barra de

platina irídio preservada em Sèvres, França. Atualmente o metro é redefinido em termos de receita.

Na prática laboratorial, o interferômetro a laser é usado, com incerteza de 10-8. O interferômetro óptico é fácil de usar e é preciso, mas muito caro.

Na prática industrial, a medição de peças é feita através de paquímetros e micrômetros, que são calibrados com blocos padrão (gage block). Os blocos são de aço dimensionalmente estável e duro e formam um conjunto que fornece dimensões precisas em uma grande faixa em pequenos degraus. Os blocos são os padrões de comprimento da indústria. As oficinas mecânicas devem ter conjuntos de blocos, que devem ser periodicamente enviados a um laboratório externo para fins de calibração e certificação.

Para comprimentos da ordem de metros, fitas flexíveis são usadas, por causa do baixo custo e grande facilidade de manuseio. Elas devem ser calibradas contra interferômetros a laser, com incertezas de 10-6. Para aplicações industriais, é fácil calibrar os medidores de comprimento. O problema mais sério da calibração é o grande tempo envolvido, pois o padrão deve ser observado por um período longo para garantir que ele seja estável durante a calibração.

Fig. 3.5.. Apalpadores - padrão de comprimento

Fig. 3.6. Conjunto de blocos padrão

2.2. Massa

Unidade O kilograma* é a unidade SI de massa com

símbolo é kg. O kilograma tem as seguintes

características: 1. única unidade de base com prefixo (kilo

= mil), 2. única unidade de base definida por um

artefato (padrão físico), 3. escolhido em 1889 e praticamente sua

definição não sofreu nenhuma modificação ou revisão.

O kilograma padrão protótipo é um cilindro de platina (90%)-irídio (10%) mantido no Bureau de Pesos e Medidas em Sèvres, França. O protótipo possui diâmetro e altura iguais a 39 mm. Esta forma é uma aproximação da esfera, que tem a propriedade de apresentar a menor razão entre a superfície e o volume. 63 duplicações deste cilindro estão distribuídas nos vários laboratórios nacionais de normas e servem como padrão de massa para estes países. A precisão é 1 parte em 109, ou seja, 1 μg em 1 kg. No Brasil, o kilograma padrão está preservado no INMETRO, em Xerém, RJ.

A unidade SI de massa já foi o grama (na prática, o mais usada é a grama) definido como a massa de um centímetro cúbico (cubo com lado igual a 1/100 de metro) de água em sua temperatura de máxima densidade (4 oC).

*O correto em português é escrever quilograma, porém no presente trabalho será usada a palavra kilograma. Por coerência de grafia, kg não pode ser símbolo de quilograma.

Page 64: Metrologia 7a

Quantidades Medidas

54

Fig. 3.7. O kilograma padrão

Padrões O padrão primário da unidade de massa é o

protótipo internacional do kilograma do BIPM. A massa de padrões secundários de 1 kg em liga de platina irídio ou em aço inoxidável é comparada à massa do protótipo por meio de balanças cuja precisão pode ser da ordem de 10-8, fazendo-se a correção do empuxo do ar.

Como visto, o peso é uma força. Os objetos são pesados, pela comparação do peso desconhecido com um peso conhecido. O equipamento usado para pesar coisas é a balança. A etimologia de balança é latina: bi-lancis ou dois pratos. A palavra balança ainda é usada, mesmo quando se tem dois pratos para a pesagem. No lugar do segundo prato, onde se colocaria o peso conhecido, são usados mola, pesos calibrados embutidos ou um servomotor.

Há quatro classes de balanças, cada uma baseada no número de intervalos usados dentro da capacidade da escala. Por exemplo, se uma balança de laboratório tem uma capacidade de 200,00 gramas e ela lê dois decimais, ela deve ter 20 000 intervalos na escala. A OIML (Organization International de Metrologie Legal) classifica as balanças em 4 classes (Tab. 3.2).

Tab.3.2 - Classificação de Balanças Classe Nome da Classe Intervalos da escala

I Especial (Fina)

50 000 < na

II Alta exatidão (Precisão)

5 000 <n < 100 000

III Média exatidão (Comercial)

500 < n < 10 000

IV Exatidão ordinária (Grosseira)

100 < n < 1 000

an - número de intervalos da escala

Balança A balança é um instrumento para a

comparação de massas e pesos. A balança analítica é um instrumento de pesagem com uma capacidade máxima que varia de uma grama a alguns kilogramas com uma precisão mínima de 10-5, na capacidade máxima. A balança mecânica se baseia no princípio da alavanca de primeira classe (o ponto de apoio está entre as duas forças). As balanças mecânicas analíticas podem ser do tipo de braços iguais e do tipo de substituição. Atualmente, são disponíveis balanças eletrônicas, com detetor de nulo, malha de realimentação para controlar a força de balanço e indicação digital com precisão típica de 10-6. O sensor da balança é o strain-gage.

No uso de balanças de precisão são requeridos alguns cuidados para minimizar as incertezas, como:

1. qualquer balança deve ser colocada em um suporte sólido, de mármore ou concreto e distante de fontes de calor, vibração e corrente de vento,

2. nivelar a balança, 3. não colocar objetos além da capacidade

nominal da balança, 3. a balança deve ser limpa após o uso, 4. não usar ou colocar material corrosivo

próximo da balança, 5. o braço de suporte da balança deve

estar sempre engajado. Quando não em uso, todos os pesos devem ser voltados para a posição zero e os pratos colocados na posição suporte,

6. estudar o manual da balança fornecido pelo fabricante,

7. calibrar periodicamente a balança e os pesos associados.

Na indústria são usados pesos padrão para calibrar e determinar a exatidão das balanças. O peso padrão é um objeto com massa conhecida, feito de material resistente à corrosão (bronze, ouro, prata, platina, aço inoxidável, ligas nobres). Os laboratórios nacionais estabelecem classes de pesos, com limites de tolerância aceitáveis e especificações para materiais e construção. Por exemplo, em uma oficina, os pesos de Classe S são usados para calibração de rotina e para aferição de balanças analíticas.

Page 65: Metrologia 7a

Quantidades Medidas

55

Fig. 3.8. Balança eletrônica analítica. (Toledo)

Massa e Peso (Força) Massa é uma medida invariante da

quantidade de matéria de um objeto. Peso é a força de atração entre um objeto e a Terra e varia com a posição geográfica. O peso P de um corpo com massa m, em um local com aceleração da gravidade g, vale: P = mg

Há confusão entre força e massa, principalmente por que já foi usada a unidade base de kilograma força para força. Atualmente, no SI há uma unidade base para massa (kilograma) e outra unidade derivada para força (newton). O peso é uma força, resultante da gravidade da Terra e como tal, sua unidade é também o newton. Porém, o peso também é expresso como kilograma força. Por preguiça, expressa-se o peso em unidade de kilograma, criando a confusão: peso é massa ou força? O peso é uma força.

A unidade SI de força é o newton, onde: 1 N = 1 kg . 1 m/s2 Outra unidade usada de força, não-SI, é o

kilograma força, onde: 1 kgf = 1 kg x aceleração da gravidade Ao nível do mar, tem-se 1 kgf = 9,806 65 N O peso descreve como a massa de um

objeto é atraída pela Terra. O peso não é constante e varia principalmente com a altitude do local. A massa é constante e independe do local. Por exemplo, na Terra, um homem pesa 100 kgf, mas na Lua, ele pesa somente 17,5 kgf. Sua massa na Terra e na Lua é a mesma e igual a 100 kg.

A balanças mede peso, porém, tem escala para indicar a massa. Por exemplo, quando uma balança indica 70 kg, ela sente o peso correspondente à massa de 70 kg e indica 70 kg.

Deve-se evitar o uso da unidade kilograma força, pelo menos por quatro motivos justos:

1. não é uma unidade SI 2. perpetua a confusão entre força, peso e

massa. 3. a unidade possui um prefixo 4. a unidade depende da altitude do local. Em resumo, tem-se: 1. A unidade SI para massa é o kilograma,

kg 2. A unidade SI para força é o newton (N).

Não use kilograma força. 3. A gravidade não é essencial no SI. 4. Deve-se usar e medir a massa, evitando

o uso do peso. Em vez de dizer: ele pesa, dizer sua massa é igual a.

Fig. 3.9. Conceito de massa e peso

Page 66: Metrologia 7a

Quantidades Medidas

56

2.3. Tempo

Introdução O tempo é a variável mais presente na vida

das pessoas embora seja também a menos entendida. Percebe-se que o tempo envolvido tem o valor alterado com a passagem de eventos mas não se tem o conceito de tempo absoluto. O que pode e realmente é medido é a noção de intervalo de tempo, duração de seqüências e de eventos. Assim, o tempo é definido como o intervalo entre dois eventos e as medições deste intervalo são feitas pela comparação com algum evento reprodutível. Por exemplo, o tempo requerido para a Terra orbitar em torno do sol (um ano) e o tempo requerido para a Terra rodar em torno de seu próprio eixo (um dia). O tempo de efeméride é baseado nas medições astronômicas do tempo requerido pela Terra para orbitar o Sol. O tempo sideral é o tempo de rotação da Terra relacionada com as estrelas distantes e é usado em astronomia. O tempo solar é o tempo da rotação da Terra com relação ao Sol e é usado na vida diária.

Há 4000 anos (intervalo de tempo), os egípcios mediam o tempo através da sombra de uma vara. Os romanos e gregos melhoraram o princípio da sombra com o relógio solar. Algumas sociedades ainda marcam o tempo com ampulhetas cheias de areia ou líquidos, gotejamento de água e queima de velas. No século XV, na Europa, foi inventado o mecanismo do relógio. No século XVI apareceu o relógio de bolso. Estes relógios eram puramente mecânicos e se baseavam em molas, engrenagens e alavancas. Depois foi criado o relógio eletrônico, alimentado com bateria e com um pequeno diapasão que mantinha uma freqüência natural de 360 Hz ou aproximadamente a freqüência da nota musical Dó. Atualmente são usados relógios eletrônicos com circuitos integrados e com cristais piezoelétricos (quartzo) para geração de freqüências constantes.

Definições O tempo é uma grandeza atípica, pois é a

única cuja unidade não pode ser colocada lado a lado para aumentar ou diminuir uma escala.

Qual é a duração de um segundo e como é possível armazenar esta medição? As tentativas da medição do tempo através do movimento do pêndulo se mostraram inexatas por causa da dificuldade de medir exatamente as posições do pêndulo móvel.

O segundo foi inicialmente definido como a fração de 1/86 400 do dia solar médio (período médio da revolução da Terra sobre seu eixo) Como o dia solar não é constante mas varia

com a velocidade de rotação da Terra, cerca de 3 segundos por ano, foi selecionado um novo padrão mais exato e reprodutível.

A 11a CGPM (1960) redefiniu o segundo baseando-se no ano trópico. Por esta definição sugerida pela União Astronômica Internacional e para uso científico, o segundo vale 1/31 556 925,974 7 do ano tropical no tempo de 12 h das efemérides de 0 janeiro 1900. O tempo de efeméride é uma medida uniforme do tempo definido pelo movimento orbital dos planetas. Uma falha grave desta definição é que não se pode medir um intervalo de tempo pela comparação direta com o intervalo de tempo definindo o segundo. A medição astronômica do tempo resulta em erro provável estimado de 10-9 que é muito grande em comparação com a definição do segundo.

Fig. 3. 10 Definição do segundo O átomo exibe transições de nível de

energia hiperfina muito regulares e é possível contar estes ciclos de energia. A 13a CGPM (1967) redefiniu o segundo como a duração de 9 192 631 770 períodos da radiação correspondente à transição entre os dois níveis hiperfinos do estado básico do átomo de Ce133. O segundo é realizado por um relógio de césio, com precisão de 2 partes em 1011. Pode-se obter precisão de 1 parte em 1012. O relógio atômico não atrasa ou adianta um segundo em 6 000 anos.

Unidades A unidade base SI do tempo é o segundo,

com o símbolo s. Além do segundo, outras unidades

continuam sendo usadas, principalmente os ciclos do calendário, como ano, dia e os múltiplos do segundo, como minuto e hora. Exemplos destes usos são: velocidade em kilômetro por hora (km/h) e velocidade rotacional de máquina em rotações por minuto (r/min) ou RPM. Os ciclos do calendário, como dia, semana, mês e ano, devem ser evitadas pois há muitas interpretações diferentes. Quando usados, os ciclos do calendário devem

Page 67: Metrologia 7a

Quantidades Medidas

57

ser definidos; por exemplo, um mês pode ser 1/12 do ano ou 30 dias.

Excepcionalmente, as unidades de tempo não estão relacionadas em potências de 10; tem-se:

60 segundos equivalem a 1 minuto 60 minutos equivalem a 1 hora 24 horas equivalem a 1 dia A ISO propôs uma nova seqüência de

dígitos para indicar datas. A nova seqüência sugerida é do tipo YMD (ano, mês e dia). Por exemplo 27 de maio de 1943 deve ser escrito como 1943-05-27. Este formato mostra a seqüência lógica em que os dados devem ser cronologicamente armazenados.

O tempo do dia também pode ser expresso em quatro dígitos, baseados nas 24 horas do dia. Por exemplo, 12:34 (doze horas e trinta e quatro minutos). A hora do dia pode ser expressa em base de 24 horas por dia ou em 12 horas antes do meio dia e 12 horas depois do meio dia. É o sistema americano AM (anti meridien) e PM (pos meridien).

Realização Diversos laboratórios credenciados

possuem aparelhos para produzir oscilações elétricas com a freqüência de vibração do átomo de Ce-133. Os padrões de tempo de césio são disponíveis comercialmente, com incertezas da ordem de 10-13 e 10-14.

Os sinais horários difundidos por ondas de rádio são dados na escala do Tempo Universal Coordenado (UTC), cujo emprego foi recomendado pela 15a CGPM (1975). O UTC difere do Tempo Atômico Internacional (TAI) de um número inteiro de segundos. A diferença UTC-TAI foi fixada em -10 s no dia 1o janeiro de 1972 e tornou-se igual a -22 s em 1o de janeiro de 1985. Periodicamente há correções no UTC, preferivelmente em fim de dezembro ou de junho (solstícios) ou fim de março ou de setembro (equinócios), de modo que o UTC permaneça próximo do tempo definido pela rotação da Terra com aproximação menor que 0,9 s. Os tempos legais dos países estão defasados de um número inteiro de horas (fusos horários) de acordo com o UTC e a cidade de Greenwich (Inglaterra) é a hora de referência.

A exatidão da medição do tempo pode requerer correções da relatividade, principalmente quando os relógios de comparação estão distantes.

O TAI é definido como a escala de tempo coordenada estabelecida por um sinal de referência geocêntrica como a unidade da escala de segundo do SI, tal que ela seja realizada pelo geoide em rotação. Para os relógios fixos em relação à Terra e ao nível do

mar, o segundo do TAI é igual ao segundo realizado localmente. A 2000 m de altitude ele se mostra mais longo (+2,2 x 10-13 s).

Padrões Na indústria, são usados contadores

eletrônicos, que são instrumentos multitarefa baseados em circuitos digitais para medir tempo e outras quantidades correlatas, como freqüência, totalização, período, relação de períodos, intervalo de tempo e média. O componentes usados nestes instrumentos incluem um relógio interno, portas lógicas, comparadores, escalonadores e contadores.

O relógio interno, que fornece a base de tempo para o contador eletrônico digital, é o sensor de tempo. O relógio é um oscilador a cristal que gera um trem de pulsos. O circuito oscilador incorpora um cristal piezoelétrico (quartzo) para dar estabilidade ao circuito. O oscilador é acionado na freqüência natural do cristal e a realimentação do cristal mantém a freqüência do oscilador igual à freqüência natural durante longos períodos de tempo. A estabilidade a longo prazo da freqüência varia em função da qualidade do oscilador, de uma parte em 105 a uma parte em 108. A estabilidade a curto prazo, medida em horas, é de uma parte em 109 . Pequenas variações de freqüência ocorrem devidas ao envelhecimento do cristal e são da ordem de 1 a 10 ppm (parte por milhão) por ano.

Um contador eletrônico comercial típico, de uso geral, de preço moderado tem uma resposta de freqüência de 10 MHz e possui display de 8 dígitos.

Na indústria, se usa também o UTC através dos serviços telefônicos de Hora Certa (ramal 130) das concessionárias.

Fig. 3.11. Ampulheta para medir tempo

Page 68: Metrologia 7a

Quantidades Medidas

58

2.4. Temperatura

Conceito A temperatura é uma quantidade

fundamental, conceitualmente diferente na natureza do comprimento, tempo e massa. Quando dois corpos de mesmo comprimento são combinados, tem-se o comprimento total igual ao dobro do original. O mesmo vale para dois intervalos de tempo ou para duas massas. Assim, os padrões de massa, comprimento e tempo podem ser indefinidamente divididos e multiplicados para gerar tamanhos arbitrários. O comprimento, massa e tempo são grandezas extensivas. A temperatura é uma grandeza intensiva. A combinação de dois corpos à mesma temperatura resulta exatamente na mesma temperatura.

A maioria das grandezas mecânicas, como massa, comprimento, volume e peso, pode ser medida diretamente. A temperatura é uma propriedade da energia e a energia não pode ser medida diretamente. A temperatura pode ser medida através dos efeitos da energia calorífica em um corpo. Infelizmente estes efeitos são diferentes nos diferentes materiais. Por exemplo, a expansão termal dos materiais depende do tipo do material. Porém, é possível obter a mesma temperatura de dois materiais diferentes, se eles forem calibrados. Esta calibração consiste em se tomar dois materiais diferentes e aquecê-los a uma determinada temperatura, que possa ser repetida. Coloca-se uma marca em algum material de referência que não tenha se expandido ou contraído. Depois, aqueça os materiais em outra temperatura determinada e repetível e coloque uma nova marca, como antes. Agora, se iguais divisões são feitas entre estes dois pontos, a leitura da temperatura determinada ao longo da região calibrada deve ser igual, mesmo se as divisões reais nos comprimentos dos materiais sejam diferentes.

Um aspecto interessante da medição de temperatura é que a calibração é consistente através de diferentes tipos de fenômenos físicos. Assim, uma vez se tenha calibrado dois ou mais pontos determinados para temperaturas específicas, os vários fenômenos físicos de expansão, resistência elétrica, força eletromotriz e outras propriedades físicas termais, irá dar a mesma leitura da temperatura.

Fig. 3.12. Conceito de frio e quente

relacionado com a temperatura A lei zero da termodinâmica estabelece que

dois corpos tendo a mesma temperatura devem estar em equilíbrio termal. Quando há comunicação termal entre eles, não há troca de coordenadas termodinâmicas entre eles. A mesma lei ainda estabelece que dois corpos em equilíbrio termal com um terceiro corpo, estão em equilíbrio termal entre si. Por definição, os três corpos estão à mesma temperatura. Assim, pode-se construir um meio reprodutível de estabelecer uma faixa de temperaturas, onde temperaturas desconhecidas de outros corpos podem ser comparadas com o padrão, colocando-se qualquer tipo de termômetro sucessivamente no padrão e nas temperaturas desconhecidas e permitindo a ocorrência do equilíbrio em cada caso. Isto é, o termômetro é calibrado contra um padrão e depois pode ser usado para ler temperaturas desconhecidas. Não se quer dizer que todas estas técnicas de medição de temperatura sejam lineares mas que conhecidas as variações, elas podem ser consideradas e calibradas.

Escolhendo-se os meios de definir a escala padrão de temperatura, pode-se empregar qualquer uma das muitas propriedades físicas dos materiais que variam de modo reprodutível com a temperatura. Por exemplo, o comprimento de uma barra metálica, a resistência elétrica de um fio fino, a milivoltagem gerada por uma junção com dois materiais distintos, a temperatura de fusão do sólido e de vaporização do liquido.

Escalas Para definir numericamente uma escala de

temperatura, deve-se escolher uma temperatura de referência e estabelecer uma regra para definir a diferença entre a referência e outras temperaturas. As medições de massa, comprimento e tempo não requerem

Page 69: Metrologia 7a

Quantidades Medidas

59

concordância universal de um ponto de referência em que cada quantidade é assumida ter um valor numérico particular. Cada milímetro em um metro, por exemplo, é o mesmo que qualquer outro milímetro. Escalas de temperatura baseadas em pontos notáveis de propriedades de substâncias dependem da substância escolhida. Ou seja, a dilatação termal do cobre é diferente da dilatação da prata. A dependência da resistência elétrica com a temperatura do cobre é diferente da prata.

Assim, é desejável que a escala de temperatura seja independente de qualquer substância. A escala termodinâmica proposta pelo barão Kelvin, em 1848, fornece uma base teórica para a escala de temperatura independente de qualquer propriedade de material e se baseia no ciclo de Carnot.

Escala Prática Internacional de Temperatura O estabelecimento ou fixação de pontos

para as escalas de temperatura é feito para que qualquer pessoa, em qualquer lugar ou tempo possa replicar uma temperatura específica para criar ou verificar um termômetro. Os pontos específicos de temperatura se tornam efetivamente nos protótipos internacionais de calor. A Conferência Geral de Pesos e Medidas aceitou esta EPIT, em 1948, emendou-a em 1960, e estabeleceu uma nova em 1968 (com 13 pontos) e em 1990 (com 17 pontos).

Fig. 3.13 - A unidade SI da temperatura termodinâmica

é o kelvin, K, que é definido como a 1/273,16 da temperatura termodinâmica do ponto tríplice da água .

A Escala Prática Internacional de Temperatura (EPIT) foi estabelecida para ficar de conformidade, de modo aproximado e prático, com a escala termodinâmica. No ponto tríplice da água, as duas escalas coincidem exatamente, por definição. A EPIT é baseada em pontos fixos, que cobrem a faixa de temperatura de -270,15 a 1084,62 oC. Muitos destes pontos correspondem ao estado de equilíbrio durante a transformação de fase de determinado material. Os pontos fixos associados com o ponto de solidificação ou fusão dos material são determinados à pressão de uma atmosfera padrão (101,325 Pa)

Além destes pontos de referência primários, foram estabelecidos outros pontos secundários de referência, que são mais facilmente obtidos e usados, pois requerem menos equipamentos. Porém, alguns pontos secundários da EPIT 1968 se tornaram primários na EPIT 1990.

Há dois motivos para se ter tantos pontos para fixar uma escala de temperatura: 1. poucos materiais afetados pelo calor

mudam o comprimento linearmente ou uniformemente. Tendo-se vários pontos, a escala pode ser calibrada em faixas estreitas, onde os efeitos não linearidade podem ser desprezados.

2. nenhum termômetro pode ler todas as temperaturas. Muitos pontos fixos permite um sistema robusto de calibração. Tab. 3.3 - Pontos Fixos da Escala Prática Internacional de Temperatura (1990)

Ponto Material Estado Temperatura 1 He Vapor -270,15 a -268,15 2 e-H2a Ponto triplob -259,346 7 3 e-H2 Vapor ~-256,16 4 e-H2 Vapor ~-252,85 5 Ne Ponto triplo -248,593 9 6 O2 Ponto triplo -218,791 6 7 Ar Ponto triplo -189,344 2 8 Hg Ponto triplo -38,834 4 9 H20 Ponto triplo 0,01

10 Ga Fusão 27,764 6 11 In Fusão 156,598 5 12 Sn Fusão 231,928 13 Zn Fusão 419,527 14 Al Fusão 660,323 15 Ag Fusão 961,78 16 Au Fusão 1064,18 17 Cu Fusão 1084,62 Notas:

a - eH2 hidrogênio em concentração de equilíbrio das formas ortomolecular e paramolecular,

b - Ponto triplo: temperatura em que as fases sólida, líquida e gasosa estão em equilíbrio.

32

0

0

oC (K) oF (oR)

212 100

OC = (oF - 32)/1,8 F=1,8C+32

escala

sensor

180100

Page 70: Metrologia 7a

Quantidades Medidas

60

Entre os pontos fixos selecionados, a temperatura é definida pela resposta de sensores específicos com equações experimentais para fornecer a interpolação da temperatura. Várias definições diferentes são fornecidas, na EPIT de 1990 para temperaturas muito baixas, próximas do zero absoluto. Nestas temperaturas, usa-se um termômetro de gás He para medir a pressão e a temperatura é inferida desta pressão. Na faixa de 13,8033 K e 961,78 oC a temperatura é definida por um termômetro de resistência de platina, que é calibrado em conjuntos específicos de pontos fixos com equações de interpolação cuidadosamente definidas.

Acima de 1064,18 oC, a temperatura é definida por pirômetro óptico de radiação, onde a lei de Planck relaciona esta radiação com a temperatura.

A EPIT é continuamente revista e uma nova versão pode estender a faixa para o extremo inferior de 0,5 K, substituindo o instrumento de interpolação a termopar com uma resistência de platina especial e atribuir valores com proximidade termodinâmica para os pontos fixos. Atualmente o mínimo valor definido na EPIT é 13,81 K.

Fig.3.14. Calibrador de temperatura A calibração de um dado instrumento

medidor de temperatura é geralmente feita submetendo-o a algum ponto fixo estabelecido ou comparando suas leituras com outros padrões secundários mais precisos, que tenham sido rastreados com padrões primários. A calibração com outro instrumento padrão é feita através do seguinte procedimento:

1. colocam-se os sensores dos dois instrumentos em contato íntimo, ambos em um banho de temperatura,

2. varia a temperatura do banho na faixa desejada,

3. permite que haja equilíbrio em cada ponto e

4. determinam-se as correções necessárias.

Termômetros com sensores de resistência de platina e termopares geralmente são usados como padrões secundários.

Unidades A 9a CGPM (1948) escolheu o ponto tríplice

da água como ponto fixo de referência, em lugar do ponto de gelo usado anteriormente, atribuindo-lhe a temperatura termodinâmica de 273,16 K. Foi escolhido o grau kelvin (posteriormente passaria para kelvin) como unidade base SI de temperatura e se permitiu o uso do grau Celsius (oC), escolhido entre as opções de grau centígrado, grau centesimal e grau Celsius para expressar intervalos e diferenças de temperatura e também para indicar temperaturas em uso prático.

Em 1960, houve pequenas alterações na escala Celsius, quando foram estabelecidos dois novos pontos de referência: zero absoluto e ponto tríplice da água substituindo os pontos de congelamento e ebulição da água.

A 13a CGPM (1967) adotou o kelvin no lugar do grau kelvin e decidiu que o kelvin fosse usado para expressar intervalo e diferença de temperaturas.

Atualmente, kelvin é a unidade SI base da temperatura termodinâmica e o seu símbolo é K. O correto é falar simplesmente kelvin e não, grau kelvin. O kelvin é a fração de 1/273,16 da temperatura termodinâmica do ponto tríplice da água.

Na prática, usa-se o grau Celsius e o kelvin é limitado ao uso científico ou a cálculos que envolvam a temperatura absoluta. Um grau Celsius é igual a um kelvin, porem as escalas estão defasadas de 273,15. A temperatura Celsius (Tc) está relacionada com a temperatura kelvin (Tk) pela equação:

Tc = Tk - 273,15 A constante numérica na equação (273,15)

representa o ponto tríplice da água 273,16 menos 0,01. O ponto de 0 oC tem um desvio de 0,01 da escala Kelvin, ou seja, o ponto tríplice da água ocorre a 0,01 oC ou a 0,00 K.

Os intervalos de temperatura das duas escalas são iguais, isto é, 1 oC é exatamente igual a 1 K.

O símbolo do grau Celsius é oC. A letra maiúscula do grau Celsius é, às vezes, questionada como uma violação da lei de estilo para unidades com nomes de pessoas. A

Page 71: Metrologia 7a

Quantidades Medidas

61

justificativa para usar letra maiúscula é que a unidade é o grau e Celsius (C) é o modificador.

A temperatura pode ser realizada através do uso de células de ponto tríplice da água, com precisão de 1 parte em 104. Medições práticas tem precisão de 2 partes em 103. A escala e os pontos fixos são definidos em convenções internacionais que ocorrem periodicamente.

Fig. 3.15. Pirômetro de radiação

Medição da Temperatura A medição pode ser medida por sensores

mecânicos e elétricos. Os principais sensores mecânicos são o bimetal e o sistema de enchimento termal. Os principais sensores elétricos são o termopar e o detector de temperatura e resistência (RTD).

O sensor bimetal funciona baseando-se na dilatação diferente para metais diferentes. A variação da temperatura medida causa variação no comprimento e no formato da barra bimetal, que pode ser usada para posicionar o ponteiro na escala de indicação de temperatura.

O sistema de enchimento termal é formado por um bulbo sensível, um sensor de pressão, um tubo capilar de interligação e um fluido de enchimento. O fluido pode ser gás (tipicamente nitrogênio), fluido não volátil (glicerina ou óleo de silicone) ou um fluido volátil (éter etílico). A temperatura é medida através da variação da pressão do gás ou da pressão de dilatação do fluido não volátil ou da pressão de vapor do fluido volátil.

A medição de temperatura por termopar se baseia na militensão gerada pela diferença de temperatura entre as duas junções de dois metais diferentes.

A medição de temperatura por resistência elétrica se baseia na variação da resistência elétrica de metais ou termistores depender da variação da temperatura medida.

Calibração do termômetro

Geral A calibração de um termômetro envolve a

determinação de sua indicação de temperatura em um número de temperaturas conhecidas. Estas temperaturas podem ser conhecidas 1. pelo estabelecimento de uma condição

altamente reprodutível, como os pontos de mudança de estados de substancias puras (ponto de fusão ou solidificação, ponto de ebulição ou liquefação, ponto triplo)

2. pelo fornecimento de um ambiente isolado termicamente, cuja temperatura é medida precisamente por um termômetro padrão.

Para se ter calibrações exatas, a condição de referência de temperatura deve ser mantida constante, dentro dos limites de precisão, durante períodos longos de tempo comparados com as constantes de tempo dos termômetros.

A interpolação entra na calibração de dois modos: 1. a escala de temperatura (IPTS-90) é

definida em 11 pontos de referência primários e 27 secundários. Apenas 15 destes pontos caem entre 0 e 1000 oC. Não é prático reproduzir mais do que umas poucas destas condições definidas na calibração prática de um termômetro, de modo que deve-se usar a interpolação para determinar a temperatura de outros condições.

2. usando condições de ponto fixo ou um termômetro de referência padrão, a calibração pode ser praticamente feita somente em um número limitado de temperaturas dentro da faixa de aplicação do termômetro a ser calibrado. Uma interpolação da calibração do termômetro entre os pontos de calibração deve ser feita para fornecer uma tabela de calibração de trabalho.

Termômetro com resistência de platina padrão é empregado para fornecer temperaturas de referência entre os pontos fixos de 0 e 650 oC na IPTS-91.O termômetro pode ser usado para medir a temperatura de banhos de temperatura com precisão de ±0,01 oC.

A precisão de instrumentos de interpolação e das calibrações de termômetros resultantes diminui na proporção que se afasta dos pontos fixos definidos ou pontos de calibração e a situação piora mais ainda quando se extrapola para pontos fora da faixa de temperatura (abaixo do mínimo e acima do máximo). A calibração de termômetros deve sempre incluir, no mínimo, um ponto abaixo e um acima dos limites da faixa de temperatura.

Page 72: Metrologia 7a

Quantidades Medidas

62

Aplicando temperaturas de calibração muito acima de sua faixa máxima pode diminuir a exatidão resultante do termômetro e até mesmo danificar o sensor.

Pontos fixos de calibração As calibrações dos termômetros podem ser

feitas em vários pontos fixos de temperatura que são realizáveis praticamente em um laboratório. Os principais pontos são:

1. Ponto de gelo = 273,15 K ou 0 oC, que pode ser realizada com exatidão reprodutível de 0,05 oC .

2. Ponto de triplo d'água = 273,16 K ou 0,01 oC, que pode ser realizada com exatidão reprodutível de 0,01 oC, usando equipamento disponível comercialmente .

3. Ponto de ebulição d'água = 373,15 K ou 100,0 oC, que pode ser realizada com exatidão reprodutível de 0,1 oC, @ pressão atmosférica de 760 mm Hg. A variação de 1 mm Hg causa uma variação de temperatura de 0,0037 oC.

4. Ponto de fusão do chumbo = 505,1181 K ou 321,9681 oC, que pode ser realizada com exatidão reprodutível de 0,05 oC , usando banhos comerciais com tempos de repouso de, no mínimo, 10 minutos.

5. Ponto de fusão do zinco = 692,73 K ou 419,58 oC, que pode ser realizada com exatidão reprodutível de 0,05 oC ,

6. Ponto de fusão do alumínio = 933,52 K ou 660,37 0,1oC, que pode ser realizada com exatidão reprodutível de 0,1 oC.

Outros pontos de fusão são definidos pela IPTS 90 como temperaturas primarias ou secundarias e podem ser usados para calibração de sensor até o ponto do ouro, 1227,58 K ou 1064,43 oC, porém, eles são difíceis de implementar, na prática.

Ambientes de temperatura controlados ou variáveis comumente usados na calibração de termômetros são banhos agitados de água, óleo, mistura de sais, câmara fluidizada de sólidos granulares e blocos metálicos equalizados em fornalhas aquecidas eletricamente. Quando se usa ambientes isotermais, é necessário se ter um termômetro padrão para determinar a temperatura de calibração verdadeira.

Tradicionalmente, o sensor padrão usado é o de platina padrão, com invólucro de quartzo ou pyrex ou termopar tipo S (Pt – 10% RH/90% Pt).

Para fazer a calibração, 1. define-se a faixa calibração do

termômetro

2. seleciona-se o número de pontos fixos ou um banho de temperatura com termômetro padrão

3. obtém-se um conjunto de pares de temperatura (indicada pelo instrumento e pelo padrão)

4. faz-se uma curva ou uma função matemática que descreva a relação indicação x temperatura

5. aplica-se algum método de encaixe de pontos, para avaliar as incertezas envolvidas

produz-se uma tabela de calibração para o termômetro particular.

Calibração de Termômetros A calibração de qualquer termômetro requer

um meio cuja temperatura seja conhecida com precisão. Uma escolha óbvia seria usar o meio em que a temperatura seja conhecida através de leis da natureza. Por exemplo, o ponto triplo da água, o ponto de fusão do zinco e outros pontos de mudança de estado de substâncias puras. Como estes meios requerem um esforço complicado para sua produção e manutenção, eles são usados principalmente para a calibração de termômetros padrão. Para os termômetros industriais, usa-se um método mais rápido, simples e prático, envolvendo um meio simples como banho de gelo ou um banho de óleo cuja temperatura seja medida com um termômetro padrão de precisão. A precisão ou o termômetro padrão é chamado de termômetro de referência.

A indicação de um termômetro sob calibração é comparada com a do termômetro de referência em vários pontos diferentes de temperatura cobrindo toda a faixa desejada. Este método é chamado de calibração por comparação, diferente da calibração em pontos fixos que envolve o uso dos pontos notáveis de mudança de estado. Um arranjo típico para a calibração de comparação de temperatura envolve um banho de calibração (banho de gelo ou de óleo), um termômetro de referência e um meio para medir a leitura dos termômetros de referência e sob calibração.

A precisão de uma calibração por comparação é determinada pela precisão dos equipamentos e pelo procedimento de calibração. Usam-se vários componentes na calibração por comparação.

Precisão do termômetro de referência. Ela depende da precisão inicial do

termômetro de referência e seu desvio. Valores típicos para a precisão inicial de um termômetro de referência são 0,001 a 0,1 oC, dependendo do tipo do termômetro e seu método de calibração. A melhor precisão seria

Page 73: Metrologia 7a

Quantidades Medidas

63

conseguida com um termômetro com resistência de platina padrão calibrado no NIST, com a precisão de alguns milésimos de oC.

Desvio do termômetro de referência. O desvio possível do termômetro de

referência deve ser considerado para o estabelecimento da precisão da calibração. Em caso de um termômetro recentemente calibrado que é conhecido ser estável de sua historia passada, o desvio pode ser desprezado. Caso contrário, o desvio deve ser incluído no calculo da precisão total. Valores típicos de desvio são 0,005 a 0,05 oC por ano, dependendo da qualidade e da manipulação do termômetro de referência.

Precisão do equipamento de medição. O equipamento de medição, como pontes,

galvanômetros e multímetros digitais são usados para medir a saída do termômetro de referência. O arranjo mais preciso seria um termômetro com resistência de platina como referência e um ponto de relação. Neste caso, a precisão resultante em termos de temperatura seria equivalente a alguns milésimos de oC.

Desvio do equipamento de medição. A não ser que o equipamento de medição

tenha sido calibrado recentemente, deve-se incluir um valor de desvio à precisão total da calibração. A faixa equivalente para a temperatura seria 0,01 a 0,1 oC por ano.

Estes quatro componentes devem ser considerados para a determinação da precisão com que se pode medir a temperatura do meio ou banho de calibração. Deve-se considerar também a precisão em que se pode medir a saída do termômetro sendo calibrado, que depende da precisão inicial e do desvio do equipamento de medição.

Considerações do Procedimento Além dos limites de precisão associados

com o termômetro de referência e o equipamento de medição, deve-se considerar o procedimento. Os componentes envolvidos aqui incluem a estabilidade e uniformidade do banho. A uniformidade do banho deve ser expressa em termos da máxima diferença de temperatura devida à distribuição espacial da temperatura que pode existir entre a temperatura do termômetro de referência e o termômetro sendo calibrado.

Um bloco equalizador feito de alumínio ou cobre ajuda a se manter o erro de uniformidade o mínimo possível e pode melhorar a estabilidade. O erro devido a instabilidade do banho pode também ser reduzido fazendo-se

medições múltiplas dos dois termômetros e fazendo-se a media das medições. A contribuição da estabilidade do banho para a precisão da calibração pode ser expressa em termos do desvio padrão das medições. O impacto negativo da uniformidade e estabilidade do banho na precisão final da calibração pode ser ainda minimizada fazendo-se o seguinte:

1. fazer a medição uma ou duas horas depois que a temperatura do banho tenha sido estabilizada em um dado ponto de calibração. Isto reduz o erro de uniformidade do banho.

2. fazer medições simultâneas da saída do termômetro de referência e do termômetro sendo calibrado. Isto minimiza o erro de estabilidade.

As medições anteriores podem ser realizadas em um arranjo controlado por computador. Para máxima precisão e eficiência, o computador pode ser programado para

1. monitorar e controlar o banho, 2. monitorar a estabilidade do banho, 3. fazer medidores e 4. processar os dados de calibração. O sistema pode incluir uma unidade de

chaveamento para permitir a varredura de vários termômetros calibrados simultaneamente.

O computador pode estabelecer a temperatura do banho para um ponto de calibração desejado, monitorar a temperatura até que ela fique estável de acordo critérios predeterminados de estabilidade, fazer as medições, coletar os dados e processar os dados para fornecer a carta de calibração do termômetro. Com tal arranjo, os erros de estabilidade e uniformidade pode ser minimizados.

Agora, deve-se estimar a melhor precisão que pode ser obtida em um ponto de calibração. Tipicamente, tem-se incertezas entre 0,04 a 0,55 oC em um ponto de calibração. Isto estabelece a faixa para a precisão que pode ser obtida em um dado ponto de calibração dentro de uma faixa moderada de temperatura. Os termômetros devem ser calibrados em mais de um ponto. Os pontos adicionais de calibração elevam os erros acima dos limites de 0,04 e 0,55 oC.

Os fatores adicionais que introduzem erros na calibração incluem o auto-aquecimento em RTDs, erros de imersão durante a calibração em RTDs e termômetros, erros de resistência de isolação, erros associados com redução de dados de calibração. Estas considerações indicam que a melhor precisão conseguida para um termômetro industrial não pode ser melhor do que 0,1 oC, mesmo para um sensor

Page 74: Metrologia 7a

Quantidades Medidas

64

novo que tenha sido calibrado recentemente. Uma vez que o termômetro é instalado no processo, a precisão pode começar a se deteriorar quando o sensor envelhece. A taxa desta deterioração depende da qualidade do termômetro, sua instalação, condições de processo e outros fatores.

As limitações de como um termômetro industrial pode ser bem calibrado e manter sua calibração indicam que a faixa de ±0,1 a ±1,0 oC é a melhor precisão que se pode conseguir com um termômetro industrial usado em faixa moderada de temperatura em uma instalação típica industrial. obviamente, o termômetro pode indicar a temperatura verdadeira do processo mas o usuário não pode estar certo de que se está medindo a temperatura melhor do que ±0,1 a ±1,0 oC. O afastamento da temperatura medida do valor verdadeiro depende de vários fatores:

1. tipo do termômetro sendo usado, 2. faixa de temperatura sendo medida, 3. condições do processo e do ambiente

onde o termômetro está exposto. Geralmente, RTDs oferecem melhor

precisão do que os termopares. Também, em faixas moderadas de temperatura, uma melhor precisão é conseguida no inicio da faixa do que na extremidade superior da faixa. Por exemplo, é muito mais simples medir com precisão a temperatura ambiente da sala do que a temperatura de 300 oC no processo industrial.

Termômetros de vidro Mesmo um termômetro de haste de vidro

deve ser calibrado periodicamente, onde se inspecionam visualmente e verificam as dimensões, permanência do pigmento, estabilidade do bulbo e precisão da escala. Depois da calibração, podem ser feitas correções, aplicados fatores de correção ou o termômetro pode ser descartado.

Para maiores detalhes, deve se consultar a norma ASTM E 77 – 92: Standard Test Method for Inspeciton and Verification of Thermometers. Várias normas ASTM cobrem os termômetros clínicos.

Termômetros a bimetal O termômetro a bimetal possui todos os

componentes de medição – sensor, condicionador e indicador – em um único invólucro. O sensor a bimetal integral ao instrumento não pode ser calibrado isoladamente mas somente pode ser inspecionado visualmente, para verificar corrosão ou danos físicos evidentes.

O que se faz é calibrar o sistema de indicação, colocando-se o termômetro em um banho de temperatura e comparando as

indicações do termômetro com as indicações de um termômetro padrão colocado junto. O termômetro a bimetal pode ser calibrado e, se necessário, ajustado nos pontos de zero e de largura de faixa.

Termopares Os termopares transformam calor em

eletricidade. As duas extremidades de dois fios de metais diferentes, como ferro e constantant®, são trançadas juntas para formar duas junções: uma de medição e outra de referência. Um voltímetro ligado em serie irá mostrar uma voltagem termelétrica gerada pelo calor. Esta voltagem é função da

1. diferença de temperatura entre a junção de medição e a junção de referência.

2. tipo do termopar usado 3. homogeneidade dos metais O mesmo resultado é obtido se as

extremidades de referência de dois fios são ligadas diretamente aos terminais do voltímetro; estes terminais formam agora a junção de referência.

Como a homogeneidade dos fios componentes do termopar pode se modificar, o termopar e os fios de extensão de termopar devem ser periodicamente calibrados. A calibração consiste em verificar se as suas características se afastaram dentro da tolerância (termopar bom) ou além da tolerância (termopar deve ser descartado).

As técnicas de calibração do termopar tem sido melhoradas constantemente em velocidade e confiabilidade, por causa do uso do microprocessador. A técnica antiga consistia em ligar o instrumento receptor do termopar aos terminais de um potenciômetro portátil de militensão, medir a temperatura destes terminais com um termômetro padrão, ajustar a saída do potenciômetro para dar a indicação teórica no receptor e anotar o ajuste do potenciômetro. Finalmente, se procurava a temperatura correspondente em tabelas padrão. Este processo consumia muito tempo e era susceptível a erros potenciais.

A medição de temperatura nos terminais é necessária porque um termopar contem inerentemente duas junções de metais diferentes e não apenas uma. A saída de voltagem deste sistema de termopar é afetada pelas temperaturas de ambas as junções. A medição da temperatura da junção de medição, deste modo, requer o conhecimento da temperatura da junção de referência. Em muitos instrumentos, a junção de referência ocorre nos terminais de ligação neste instrumento receptor.

Page 75: Metrologia 7a

Quantidades Medidas

65

Tab. 3. 5. Incertezas de calibração em termopares calibrados pelo método de comparação A

Incerteza Tipo Faixa, oC Pontos de calibração Pontos observados Valores interpolados

0 a 870C cada 100 0,5 1 0 a 870C 300, 600 e 870 0,5 2 0 a 350D cada 100 0,1 0,5

E

-160 a 0D cada 50 0,1 0,5 0 a 760C 100, 300, 500 e 750 0,5 1 J 0 a 350D cada 100 0,1 0,5 0 a 1250C cada 100 0,5 1 0 a 1250C 300, 600, 900 e 1200 0,5 2 0 a 350D cada 100 0,1 0,5

K

-160 a 0D cada 50 0,1 0,5 0 a 1450C cada 100 0,3 0,5 a 1100 e 2 a 1450 R e S 0 a 1450C 600 e 1200 0,3 1 a 1100 e 3 a 1450 0 a 1700C cada 100 0,3 0,5 a 1100 e 3 a 1700 B 0 a 1700C 600 e 1200 0,3 1 a 1100 e 5 a 1700 0 a 370D cada 100 0,1 0,2 0 a 100D 50 e 100 0,05 0,1

T

-160 a 0D cada 60 0,1 0,2 A Valores foram extraídos da Circular 590 do National Bureau of Standards (hoje NIST) C Em fornos tubulares, por comparação com um termopar tipo S calibrado D Em banhos líquidos agitados, por comparação com um RTD de platina calibrado O microprocessador simplificou muito a

calibração do termopar. Sua memória pode conter as curvas de temperatura (voltagem x temperatura) para os diferentes termopares. Estas curvas são geradas usando-se equações publicadas pelo National Institute of Standards and Technology. Um instrumento a microprocessador também faz a medição da temperatura da junção de referência, incorporando-a em um resultado compensado corretamente. Quando a calibração do instrumento baseado em microprocessador recebe uma voltagem, ele imediatamente translada para a unidade de temperatura (oC), de acordo com tabelas contidas na sua memória e indica digitalmente estes valores.

Para calibrar instrumentos com termopar, a técnica básica é fornecer um sinal conhecido para o instrumento receptor para garantir que ele está dando uma indicação precisa e exata. O calibrador fornece este sinal de uma fonte estável e monitora, ao mesmo tempo, o sinal com o sistema de medição do próprio calibrador. A curva temperatura vs voltagem armazenada no sistema do microprocessador

do calibrador é o ponto de referência para gerar uma saída correta. Assim, o calibrador simula o termopar, gerando uma tensão correspondente à temperatura e indicando temperatura (e não tensão).

Além de calibrar e ajustar o instrumento receptor (registrador, indicador, controlador), deve-se calibrar o sensor em si. O sensor pode ser substituído por um sensor novo calibrado ou pode ser removido e calibrado em um laboratório de temperatura. Ele também pode ser calibrado no local se um sensor padrão de referência puder ser instalado temporariamente próximo do termopar de trabalho. Este caso nem sempre é possível, mas quando possível, ele deve ser preferido. Sua vantagem é que o sensor instalado é aferido em sua condição real de operação. Um calibrador tendo dois canais de entrada torna este método prático.

Vantagens da Calibração Inteligente Os calibradores a microprocessador

melhoram muito a precisão. Sem esta ajuda, o técnico começa com algum erro pelo fato de usar um termômetro separado na junção de referência que não está colocado na junção de referência. A conversão manual de tabelas pode levar a erros humanos de operação.

Page 76: Metrologia 7a

Quantidades Medidas

66

Usando a técnica de microprocessador, consegue-se precisão de até 0,02%.

Os calibradores digitais podem ter outras funções, oferecendo uma faixa de características para medir todos os tipos de termopares e fontes de militensões e para calibrar registradores, indicadores, controladores e outros tipos de circuitos potenciométricos e pirométricos. Os calibradores são portáteis e leves, com baterias recarregáveis e autocontidas.

Os instrumentos a microprocessador podem medir e simular os sete tipos de termopares definidos pela ISA e outros padrões internacionais e adaptados para a maioria das aplicações. Cada termopar tem suas próprias ligas metálicas, faixas de temperatura e códigos de cores. Estes termopares são do tipo: B, E, J, K, R, S e T. Um oitavo tipo, N, foi definido e está sendo padronizado. As curvas destes termopares, disponíveis na literatura técnica, mostram tensão (mV) versus temperatura (oC) e podem ser armazenadas na memória do calibrador.

A calibração com instrumento a microprocessador permite a calibração mais rápida, mais direta e mais precisa.

Há ainda tabelas gerais, tais como:

1. Tolerâncias nos valores iniciais de fem versus temperatura para termopares

2. Limites superiores sugeridos para termopares protegidos

3. Coeficientes polinomiais para termopares gerando fem como função de temperatura

4. Coeficientes de polinômios inversos para computação da temperatura aproximada como função de fem de termopares

2.5. Corrente Elétrica

Conceito A 9a CGPM (1948) adotou a definição de

ampere, baseando-se em unidades mecânicas existentes, como a corrente constante que, se mantida em dois condutores retos paralelos de comprimento infinito, de seção circular desprezível e colocados em uma distância de 1 m, no vácuo, produzem entre estes condutores uma força igual a 2 x 10-7 N por metro de comprimento.

Outra definição mais prática e realizável estabelece que 1 ampere é a corrente elétrica que deposita 1,118 mg de prata em 1 s de uma solução saturada de óxido de prata.

Atualmente, há pesquisas e estudos no SI para mudar a unidade padrão elétrica corrente

elétrica para tensão elétrica, que é mais fácil de se manipular.

Fig. 3. 16 - O ampere e sua definição SI

Unidade O ampere é a unidade SI base de corrente

elétrica e o seu símbolo é A.

Realização da Unidade Base SI A corrente elétrica pode ser realizada pela

balança de corrente de Ayrton-Jones, com precisão de 2 partes em 106. A resistência elétrica pode ser medida com precisão de 5 partes em 108 pelo capacitor calculável de Thompson-Lampard e o volt pode ser medido com 3 partes em 108 usando os efeitos Josephson, que são insatisfatórios.

Padrões Como a precisão da realização do ampere

pela balança de corrente é muito pobre quando comparada com a precisão de intercomparação de células padrão e resistores, e também por causa da dificuldade de armazenar o valor realizado do ampere, os Laboratórios Nacionais de Padrão usam bancos de células padrão e resistores como padrões primários mantidos.

Fig. 3.17 Instrumento multímetro, portátil,

que mede corrente, tensão, resistência e freqüência

Page 77: Metrologia 7a

Quantidades Medidas

67

Fig. 3.18. Instrumento multímetro de oficina

2.6. Quantidade de Matéria

Conceito O nome desta grandeza é quantidade de

matéria, tendo como base o nome francês quantité de matière, porém é usado também o nome quantidade de substancia, por causa da influencia do inglês amount of substance. Este nome recorda o latim quantitas materiae, utilizado para designar a grandeza que hoje se chama massa. Deve-se esquecer este significado pois a massa e a quantidade de matéria são grandezas diferentes.

Mol é a unidade de quantidade de matéria, criada para os químicos, em 1971. O mol é definido no SI como a quantidade de matéria de um sistema que contem um número de unidades elementares igual ao número de unidades contidas nos átomos de C-12 em exatamente 0,012 kilograma. A unidade elementar deve ser especificada e pode ser átomo, molécula, íon, elétron ou grupo específico destas entidades.

Um mol contem a mesma quantidade de átomos que 0,012 kilograma de carbono C-12. Anteriormente, o oxigênio (O2-16) era usado como referência, porem, por desavenças entre físicos e químicos e por causa da existência de três isótopos do oxigênio (16, 17 e 18), em 1960 houve um acordo entre eles para se usar o isótopo 12 do carbono.

A lei de Avogrado estabelece que iguais volumes de gases ideais, à mesma temperatura e pressão, contem o mesmo número de moléculas. O número de moles pode ser expresso como o número de unidades elementares dividido pelo número de Avogadro (6,02 x 1023). A unidade elementar pode ser átomo, molécula, íon, elétron, fóton ou um grupo especifico de tais unidades, porém a entidade usada deve ser especificada.

O mol é numericamente igual à massa molecular em gramas, erroneamente chamada de peso molecular. O mol não é uma unidade de massa mas deve ser considerada como tendo uma dimensão própria. As vezes se

pensa que a existência da massa tornaria desnecessária a quantidade de matéria. Há situações na química e física onde é desejável basear as medições das propriedades em um componente fundamental da matéria, como a molécula e o átomo. As massas expressas em unidades de kilograma são muito pequenas e com exatidões inadequadas. Como é bem estabelecido que o mesmo número de moléculas e átomos tem a mesma massa e propriedades, é conveniente definir uma quantidade base de quantidade de matéria - o mol.

Para aumentar a precisão das quantidades envolvidas, o mol é definido indiretamente pela comparação do número de entidades relacionadas com as que constituem 0,012 kg de C-12. Uma contagem direta destes itens em um mol substitui a referência das medições de massas, levando a uma precisão maior em termos de mol.

A massa molecular ou atômica tendo o kilograma por mol como unidade deve substituir o peso molecular ou o peso atômico. A palavra molar colocada depois de uma quantidade indica que ela se refere à unidade de quantidade de matéria (mol), ou seja, por mol de matéria. O termo especifico corresponde a uma quantidade sendo referida à unidade de massa (kg). Por exemplo, a massa molar do metano é 0,016 043 kg/mol e para o bióxido de carbono é 0,044 010 kg/mol. Estas duas massas tem exatamente o mesmo número de moléculas.

Unidades O mol é a unidade de base SI de

quantidade de matéria e o seu símbolo é mol. Não se deve dizer que n é o número de moles, mas que n é a quantidade de matéria.

O volume molar de um gás ideal nas condições normais de temperatura e pressão (0 oC e 1 atmosfera) é igual a 22,4 litros. Volumes iguais de gases contem números iguais de partículas. Um mol de qualquer gás contem 6,02 x 1023 moléculas.

Page 78: Metrologia 7a

Quantidades Medidas

68

2.7. Intensidade Luminosa As unidades de intensidade luminosa se

baseavam em padrões de chama ou lâmpadas de filamento incandescente. A 9a CGPM (1948) substituiu o nome de vela nova por candela, que correspondia à luminância do emissor de radiação de Planck (corpo negro) à temperatura de fusão da platina, por sugestão da Comissão Internacional de Iluminação.

A 13a CGPM (1967) redefiniu a unidade candela, como a intensidade de luz incidindo na direção perpendicular a uma superfície de 1/600 000 metro quadrado de um corpo negro radiador perfeito, à temperatura de liquefação da platina (2024 K), à pressão padrão (101 325 pascals).

A 16a CGPM (1979) redefiniu novamente a candela, por causa da dificuldade prática e realizar o irradiador de Planck em alta temperatura e das novas facilidades da radiometria. Atualmente, a candela é a intensidade luminosa, numa dada direção de uma fonte que emite uma radiação monocromática de freqüência 540 x 1012 Hz e com intensidade energética nesta direção de 1/683 W/sr.

Candela é a unidade base SI de intensidade luminosa, com símbolo de cd. (Candela, em latim significa vela).

A realização da candela é conforme a definição, o que é difícil e impreciso. A precisão obtida é de 5 partes em 106. Por exemplo, uma lâmpada incandescente de 100 watts tem aproximadamente intensidade luminosa de 135 candelas (135 cd).

Fig. 3. 19. Conceito de intensidade luminosa

2.8. Quantidades Suplementares Há duas grandezas suplementares:

1. ângulo plano, unidade radiano (rad) 2. ângulo sólido, unidade esterradiano (sr)

Embora estas grandezas tenham sido apresentadas como suplementares elas são análogas às grandezas de base.

Ângulo plano e ângulo sólido podem ser considerados adimensionais, ou seja, suas unidades podem ser radiano e esterradiano ou nenhuma dimensão.

Ângulo Plano O radiano é a unidade de ângulo plano. Um

radiano é o ângulo plano com seu vértice no centro de um círculo compreendido por um arco com comprimento igual ao do raio. O radiano é adimensional. O símbolo do radiano é rad.

1 radiano é igual a 57,2958o. O círculo possui 2 π radianos

(aproximadamente 6,2832 rad). Na prática, usa-se mais o grau que o

radiano para expressar os ângulos planos. O radiano é mais usado em equações científicas e de engenharia.

Ângulo Sólido O esterradiano é a unidade de ângulo

sólido. Um esterradiano é o ângulo sólido com o vértice no centro de uma esfera compreendido por uma área de superfície esférica igual a de um quadrado tendo lados iguais ao comprimento do raio. O símbolo do esterradiano é sr.

A esfera possui 4 π esterradianos (12,566 sr).

Fig. 3.20 - Definições SI de radiano e esterradiano.

APOSTILA\METROLOG 4QuantBas.DOC 22 SET 98 (Substitui 01 ABR 98)

Page 79: Metrologia 7a

69

4. Instrumentos de Medição

Objetivos de Ensino 1. Relacionar as necessidades e aplicações das medições das variáveis, em controle,

monitoração e alarme de processos industriais. 2. Apresentar as principais funções da medição e controle: detecção da variável,

condicionamento do sinal, apresentação dos dados e atuação no processo. 3. Mostrar os principais tipos de instrumentos, pelo princípio de funcionamento, atuação,

alimentação, natureza do sinal. 4. Apresentar o conceito de elemento sensor, terminologia e princípios básicos de

funcionamento. 5. Apresentar os principais condicionadores de sinal: transmissor, filtro, amplificador,

linearizador, conversor A/D e D/A. 6. Conceituar e especificar os principais instrumentos de display: indicador, visor, registrador,

contador-totalizador e controlador. 7. Conceituar as características estáticas e dinâmicas dos instrumentos, como exatidão e

precisão. 8. Apresentar os parâmetros da precisão, como linearidade, repetitividade, reprodutibilidade,

sensitividade, zona morta, velocidade de resposta e confiabilidade. 9. Diferenciar as expressões de precisão, em percentagem de fundo de escala e do valor

medido. 10. Mostrar a filosofia para escolher e especificar a precisão necessária do instrumento. 11. Conceituar rangeabilidade. 12. Conceituar erro e apresentar os diferentes tipos e causas de erros, grosseiros, aleatórios e

sistemáticos. 13. Apresentar os tipos de erros em função do tempo, origem. 14. Mostrar as fontes do erro sistemático: inerente ao instrumento, influência, modificação e

carga do instrumento. 15. Apresentar a filosofia para determinação do erro resultante.

Page 80: Metrologia 7a

Instrumentos de Medição

70

1. Medição

1.1. Metrologia Metrologia é a ciência das medições. A

palavra metrologia é derivada de duas palavras gregas: metro que significa medição e logia que significa ciência. O termo é usado em um sentido mais restrito para significar a porção da ciência da medição usada para fornecer, manter e disseminar um conjunto consistente de unidades, para fornecer suporte para o cumprimento de igualdade no comércio por leis de pesos e medidas ou para fornecer dados para controlar qualidade em processos.

Uma medição é uma série de manipulações de objetos ou sistemas físicos de acordo com um protocolo definido que resulta em um número. O número é reportado para representar unicamente a magnitude ou intensidade de alguma satisfação de que depende as propriedades do objeto sob teste. Este número é desenvolvido para formar a base de uma decisão afetando algum objetivo humano ou satisfazendo alguma necessidade humana, a satisfação de que depende das propriedades do objetivo sob teste.

Estas necessidades podem ser vistas de modo útil como requerendo três classes gerais de medição:

1. Técnicas 2. Legais 3. Científicas

Técnicas Esta classe inclui as medições feitas para

garantir a compatibilidade dimensional, conformação a especificações de projeto necessárias para uma função apropriada ou em geral, todas as medições feitas para garantir adequação para uso pretendido de algum objeto.

Legal Esta classe inclui as medições feitas para

garantir cumprimento da lei ou regulação. Esta classe se refere a instituições de pesos e medidas, inspetores e aqueles que devem fazer cumprir as leis. As medições são idênticas em espécie às da metrologia técnica mas são revestidas de uma estrutura mais formal.

Científica Esta classe inclui as medições feitas para

validar teorias da natureza do universo ou para sugerir novas teorias. Estas medições, que podem ser chamadas de metrologia científica apresentam problemas especiais.

1.2. Resultado da Medição Nenhum ramo da ciência ou da técnica, da

indústria ou do comércio pode se organizar sem a existência de medições que determinem as dimensões ou características do produto.

O resultado de qualquer medição de uma grandeza física resulta sempre em três fatores:

1. o valor numérico da grandeza 2. a unidade da grandeza. 3. a incerteza da medição, associada a

uma 4. probabilidade de que o valor medido caia

nos intervalos da incerteza. A importância da incerteza ou erro da

medição é que ela obscurece a habilidade de se obter a informação que se quer: o valor verdadeiro da variável medida. Por causa dos erros, a exatidão de uma medição nunca é certa. A estatística mostra que o valor verdadeiro conseguido em um conjunto de medições é dado por sua média aritmética e a incerteza neste valor é:

x x ux= ± (P%)

onde x = valor medido x = média das medições da amostra ux = incerteza da medição P = probabilidade que a medição esteja

dentro do intervalo (x - ux) e (x + ux) O resultado da medição do comprimento de

uma peça pode ser, por exemplo, (8,0 ± 0,2) m

onde 8,0 é o valor provável do comprimento 0,2 é a incerteza da medição, feita por um

instrumento real e há uma probabilidade de 95% que o valor 8,0 medido esteja entre o intervalo 7,8 e 8,2 (esta informação deve ser dada pelo fabricante do instrumento e informada no catálogo do instrumento que fez a medição do comprimento)

m é o símbolo da unidade de comprimento metro.

Afirmar simplesmente que o resultado é 8 não tem nenhum significado, a não ser que se complete a informação com a unidade metro, a incerteza 0,2 e a probabilidade associada com esta incerteza.

Há grandezas sem unidades, como densidade relativa, índice de refração, coeficiente de atrito, número de Reynolds.

Page 81: Metrologia 7a

Instrumentos de Medição

71

1.3. Aplicações da Medição Os principais usos da medição em

processos industriais e operações são: 1. controle 2. monitoração 3. alarme.

Controle Controlar uma variável de processo é

mantê-la constante e igual a um valor desejado ou variando dentro de limites estreitos. Só se controla uma variável. Não se pode ou não há interesse em controlar grandeza que seja constante. O controle é tão bom quanto a medição da variável controlada.

O controle pode ser obtido manualmente, quando o operador atua no processo baseando-se nas medições e indicações de grandezas do sistema. O controle manual é de malha aberta e é matematicamente estável.

Há várias técnicas e teorias para se obter o controle automático de processos industriais. A técnica básica e a mais usada é através da malha fechada com realimentação negativa (feedback), onde

1. se mede a variável controlada na saída do processo,

2. compara-a com um valor de referência e 3. atua na entrada do processo, 4. de modo a manter a variável controlada

igual ao valor desejado ou variando em torno deste valor.

O controle automático com realimentação negativa pode se tornar mais complexo, envolvendo muitas variáveis de processo simultaneamente. São casos particulares de controle a realimentação negativa multivariável: cascata, faixa dividida (split range) e auto-seletor.

Outra técnica alternativa é o controle de malha fechada preditivo antecipatório (feedforward). Esta estratégia envolve

1. a medição de todos os distúrbios que afetam a variável controlada,

2. um modelo matemático do processo sob controle,

3. a atuação em uma variável manipulada, 4. no momento em que há previsão de

variação na variável controlada e antecipando-se ao aparecimento do erro.

5. para manter a variável controlada constante e igual ao valor desejado,

Um caso particular e elementar de controle preditivo antecipatório é o controle de relação de vazões.

Monitoração Monitorar é supervisionar um sistema,

processo ou operação de máquina, para verificar se ele opera corretamente durante sua

operação. Em instrumentação, é comum usar instrumentos para medir continuamente ou em intervalos uma condição que deve ser mantida dentro de limites predeterminados. São exemplos clássicos de monitoração:

1. radioatividade em algum ponto de uma planta nuclear,

2. deslocamento axial ou vibração radial de eixos de grandes máquinas rotativas,

3. reação química em reatores através da análise de composição dos seus produtos.

Um sistema de monitoração é diferente de um sistema de controle automático porque não há atuação automática no sistema, ou por incapacidade física de atuação ou por causa dos grandes atrasos entre as amostragens, medições e atuações. No sistema de monitoração, todas as indicações e registros são avaliados continuamente, analisam-se as condições do processo e, em caso extremo, pode-se desligar o sistema, de modo automático ou manual, quando os limites críticos de segurança são atingidos.

Alarme Em sistemas de controle e de monitoração é

comum se ter alarmes. Um sistema de alarme opera dispositivos de aviso (luminoso, sonoro) após a ocorrência de uma condição indesejável ou perigosa no processo. O sistema de alarme é usado para chamar a atenção do operador para condições anormais do processo, através de displays visuais e dispositivos sonoros. Os displays visuais geralmente piscam lâmpadas piloto para indicar condições anormais do processo e são codificados por cores para distinguir condições de alarme (tipicamente branca) e de desligamento (tipicamente vermelha). Diferentes tons audíveis também podem ser usados para diferenciar condições de alarme e de desligamento.

Um sistema de alarme possui vários pontos de alarme que são alimentados por uma única fonte de alimentação. O anunciador de alarme apresenta a informação operando em seqüência. A seqüência descreve a ordem dos eventos, incluindo as ações das chaves de alarme, lógica do anunciador, sinal sonoro, display visual e ação do operador.

Tipicamente, cada seqüência tem quatro objetivos:

1. alertar o operador para uma condição anormal,

2. indicar a natureza da condição anormal (alarme ou desligamento),

3. requerer a ação de conhecimento pelo operador

4. indicar quando o sistema retorna à condição normal.

Page 82: Metrologia 7a

Instrumentos de Medição

72

1.4. Tipos de Medição Os três tipos principais de medição são: 1. medição direta 2. comparação 3. substituição

Medição direta Como o nome sugere, esta é a forma mais

simples de medição. Por exemplo, se mede a voltagem escolhendo um medidor com a faixa correta de voltagem, ligando-o nos terminais apropriados e lendo a voltagem diretamente da posição do ponteiro na escala ou nos dígitos do display.

Fig. 4.2. Medição direta O método direto de pesagem toma uma

balança com mola, com a faixa correta, coloca nela o peso desconhecido e lê o deslocamento na escala calibrada.

O método direto de medição baseia no comportamento de algum sistema físico (sensor e processador do sinal) para converter a quantidade medida (sinal de entrada) em uma quantidade observável (sinal de saída). Para o voltímetro, o processo físico é a rotação da bobina móvel quando a corrente passa por ela. A balança de mola se baseia no deslocamento causado pela força da gravidade no peso. Para os dois instrumentos, é necessária uma calibração inicial da posição do ponteiro, como uma função da magnitude do sinal de entrada. Isto é feito somente em uma posição, tipicamente na deflexão de fundo de escala e a precisão da leitura em outros pontos depende da linearidade da resposta do sistema. A precisão contínua do instrumento entre as calibrações depende do valor pelo qual a resposta do sistema pode variar, devido ao envelhecimento e outros efeitos. A precisão da medição direta depende fundamentalmente do sistema físico escolhido como transdutor e processador do sinal, do número de vezes de calibração do sistema e da qualidade do equipamento usado.

Medição comparativa - balanço de nulo O método comparativo de pesagem deve

ser muito familiar a todos. Usam-se dois pratos da balança para comparar os pesos da massa desconhecida e da massa conhecida. Quando eles forem iguais, não haverá deflexão do ponteiro. Quando um for maior que o outro, haverá uma deflexão para algum dos lados da balança. Tudo se resume a uma questão de se ter pesos calibrados conhecidos para que se tenha a pesagem exata de qualquer massa desconhecida.

Não há necessidade de calibração. Em cada medição, a quantidade desconhecida é comparada diretamente com uma quantidade conhecida.

Fig. 4.3.Medição por comparação

Uma situação similar pode ocorrer na

medição elétrica. Pode-se produzir uma voltagem conhecida e então compará-la com uma voltagem desconhecida. A comparação real é feita usando-se um galvanômetro que detecta se há passagem ou não de corrente por ele. Quando as tensões forem diferentes, haverá passagem de corrente em alguns dos dois sentidos, dependendo do valor relativo das tensões. Quando elas forem iguais não haverá corrente pelo galvanômetro. Quando se obtém a posição zero (nulo), garante-se que as tensões são exatamente iguais. Este método, chamado de balanço de nulo, é extremamente preciso porque ele não se baseia em qualquer outro sistema físico para se obter o valor da quantidade sendo medida.

Outro circuito eletrônico baseado em detector de nulo é a ponte de Wheatstone, que consiste em 4 resistências, uma fonte de polarização e um galvanômetro detector de zero. A ponte de Wheatstone é usada para medir valores de resistência elétrica e pequenas tensões.

Page 83: Metrologia 7a

Instrumentos de Medição

73

Fig. 4.4. Ponte de Wheatstone O sistema de medição é usado apenas para

indicar quando se obtém o balanço do nulo. O sistema necessita apenas da medição para dar a leitura do zero; ele não precisa ser calibrado nem precisa dar uma resposta linear. O sistema de medição deve ser calibrado somente quando as leituras forem tomadas fora do equilíbrio.

Medição por substituição Como já visto, o método comparativo de

medição é fundamentalmente mais preciso do que o método correspondente de medição direta, por que se elimina o sistema de medição como meio de interpretar o sinal de entrada sendo medido. Foi visto também que uma forma limitada de sistema de medição era usar o registro da posição do balanço do nulo. Um método mais preciso ainda de medição elimina qualquer efeito do sistema de medição.

Como exemplo, seja a balança química com dois pratos, que fica balançada exatamente quando há a massa de 200 g em cada prato. Agora, se estes pesos forem removidos e um peso de apenas 1 g for colocado em cada prato, haverá ainda um balanço perfeito? Espera-se que sim. Porém, entre a primeira e a segunda medições foram removidas 398 g do sistema e isto afetará as tensões e resistências presentes nos braços, suportes e ponteiro. É bem possível que haja uma pequena variação no comportamento do sistema, dando um erro na medição da 1 g. Em uma balança mais precisa deveria haver uma garantia que o peso total no sistema não variasse, mesmo se forem medidos pesos de diferentes valores. Isto pode ser feito pelo método da substituição.

Fig. 4.5. Medição por substituição

Uma balança perfeita é obtida com os pesos calibrados de 200 g no prato B. Um peso desconhecido M é colocado no prato A. Para se consiga um novo balanço, agora é necessário remover pesos do prato B.

O peso removido de B é igual ao peso desconhecido colocado no prato A, de modo que este peso foi medido. Porém, o que é significativo neste novo sistema é que o peso total na balança não foi alterado. Tudo que aconteceu foi a substituição de um peso desconhecido por um peso conhecido e as condições do sistema de medição (balança) não foram alteradas. Assim, a medição por substituição envolve a recolocação de algo de valor desconhecido por algo de valor conhecido, sem alterar as condições de medição.

Por exemplo, seja a resistência de valor desconhecido em um circuito. Se ela é substituída por uma resistência de valor conhecido, R, de modo que a voltagem e a corrente no circuito continuem exatamente as mesmas, então o valor da resistência desconhecida é também igual a R.

2. Instrumentos da Medição Os instrumentos podem ser classificados de

acordo com sua aplicação, modo de operação, método de conversão de energia, natureza do sinal de saída. Todas estas classificações usualmente resultam em superposição. Porém, os instrumentos usados na prática podem ser divididos nas seguintes categorias:

1. manual e automático 2. contato e não-contato 3. auto-alimentado e com fonte externa 4. analógico e digital

2.1. Manual e Automático A medição mais simples é feita

manualmente, com a interferência direta de um operador. A medição manual geralmente é feita por um instrumento portátil. Exemplos de medição manual: medição de um comprimento por uma régua, medição de uma resistência elétrica através de um ohmímetro, medição de uma voltagem com um voltímetro. As medições feitas manualmente geralmente são anotadas pelo operador, para uso posterior.

A medição pode ser feita de modo automático e continuo. O instrumento fica ligado diretamente ao processo, sentido a variável e indicando continuamente o seu valor instantâneo. Quando o operador quiser saber o valor medido, ele se aproxima adequadamente do instrumento e faz a leitura. Também neste caso, ele pode anotar a leitura feita para uso posterior.

E D A B

R1 R2

R4 R3

Page 84: Metrologia 7a

Instrumentos de Medição

74

Quando se necessita do registro continuo da variável, usa-se um registrador, que opera continuamente. Atualmente é possível, num sistema de aquisição de dados, a medição continua de muitas variáveis e a emissão de relatórios de medição através de impressoras de computador.

2.2. Contato e Não-Contato Outro critério importante no estudo dos

instrumentos de medição é sua colocação e interação com o processo medido. A medição pode ser feita com e sem contato físico.

Há medições realizadas com o contato físico do instrumento com o processo. Por exemplo, a medição de temperatura com um termômetro clinico, o bulbo do termômetro entra em contato físico com o corpo do qual se quer medir a temperatura. A condução do calor, depois de algum tempo, iguala a temperatura do sensor com a do corpo e o termômetro indica a temperatura medida. Dependendo do tamanho, massa e temperatura do termômetro, ele pode alterar a temperatura medida.

Outro exemplo clássico de medição com contato físico é a medição de vazão com placa de orifício. A placa de orifício é uma restrição que é colocada em uma tubulação. Quando a vazão passa por esta restrição, a velocidade do fluido aumenta e como conseqüência, a pressão estática da tubulação diminui. Pela medição desta diferença de pressão, antes e depois da placa de orifício, pode-se medir com precisão a vazão volumétrica do fluido. A placa de orifício, elemento sensor de vazão, provoca uma queda de pressão na tubulação e afeta a vazão medida.

Um terceiro exemplo de medição com contato é a medição de corrente elétrica com um amperímetro. O amperímetro usado para medir a corrente é colocado fisicamente no circuito de medição. A resistência interna do amperímetro pode afetar a medição feita.

Na maioria das medições feitas há contato físico entre o elemento sensor e o processo. As vezes, usam-se selos e poços para isolar o sensor do processo, mas mesmo nestas aplicações, há contato entre o instrumento de medição com o processo. A principal desvantagem do medidores diretos e com contato é a possibilidade do sensor alterar o valor da variável medida.

Medição sem Contato

É possível fazer medição sem o contato físico entre o instrumento e o processo. Por exemplo, há muito tempo os astrônomos sabem com relativa precisão a temperatura da

superfície dos planetas, da Lua e do Sol. E eles nunca foram a estes lugares, exceto, uma única rápida vez, à Lua.

Exemplos clássicos de medição sem contato: 1. Medição de temperatura com sensores de

radiação de infravermelho. A temperatura é medida à distância, através de computação da energia captada pelo medidor. Estes sensores ópticos de temperatura apresentam precisão aceitável e podem medir temperaturas baixa (muitas pessoas acham que eles só podem ser aplicados em medições de alta temperatura. Quem mede o mais difícil, também mede o mais fácil).

2. Medição da corrente e tenso elétricas através de amperímetro alicate. No amperímetro alicate, os fios por onde circula a corrente que se quer medir são enrolados externamente à ponta de prova do amperímetro. O amperímetro mede a corrente que circula pelo fio, sem interromper o circuito e sem fazer parte física do circuito.

3. Analogamente, é possível medir vazões de fluidos com medidores ultra-sônicos, que são não-intrusivos e externos à tubulação. A principal justificativa do uso de medidores

sem contato, embora menos precisos que os de contato, é a sua facilidade de aplicação, sem interferência na operação do processo e principalmente, sem alteração da variável medida.

2.3. Alimentação dos Instrumentos A energia está associada aos instrumentos

de dois modos: através da alimentação e do método de transdução.

Qualquer instrumento para funcionar necessita de uma fonte de energia. Esta fonte de energia pode ser externa e explícita, quando o instrumento é alimentado. As duas fontes clássicas de alimentação de instrumentos são a eletrônica e a pneumática.

Instrumentos eletrônicos são alimentados por uma fonte externa de voltagem, típica de 24 V cc. Esta alimentação pode ser feita por um par de fios diferente do par de fios que conduz a informação ou pode ser feita pelo mesmo par de fios que conduz a informação. Geralmente a alimentação é fornecida por um instrumento montado na sala de controle. Por questão econômica e de segurança, raramente se usa um instrumento de medição alimentado com uma bateria integral (colocado no seu interior). O sinal padrão de transmissão de corrente é de 4 a 20 mA cc.

Instrumentos pneumáticos são alimentados por uma fonte externa de ar comprimido, típica

Page 85: Metrologia 7a

Instrumentos de Medição

75

de 140 kPa (20 psi). Cada instrumento pneumático montado no campo é alimentado individualmente através de um conjunto filtro-regulador ajustável ou fixo. O filtro elimina, num estágio final, as impurezas, umidade e óleo contaminantes do ar comprimido. O regulador, ajustável ou fixo, geralmente abaixa a pressão mais elevada de distribuição para o valor típico de 140 kPa. O sinal padrão de transmissão pneumática é de 20 a 100 kPa.

Existe ainda instrumentos de montagem local que não necessitam de nenhuma alimentação externa para seu funcionamento. Eles são chamados de auto-alimentados. Eles utilizam a própria energia do processo para seu funcionamento. Exemplos de indicadores e registradores que não necessitam de alimentação externa são: 1. indicador local de pressão, com elemento

sensor tipo bourdon C, helicoidal, espiral, helicoidal ou fole.

2. indicador local de temperatura com elemento sensor tipo bimetal.

3. indicador ou registrador local de vazão com elemento sensor de pressão diferencial (diafragma). Idealmente, variações da alimentação do

instrumento não deveriam afetar o desempenho dos instrumento e por isso, não deveriam provocar erros de medição. Na prática, quando a alimentação excede os limites inferior e superior da alimentação, há erros de medição. Geralmente, os fabricantes informam tais limites de alimentação, que não devem ser excedidos, sob pena de provocar grandes erros de medição.

2.4. Analógico e Digital O conceito de analógico e digital se refere a 1. sinal 2. função matemática 3. tecnologia 4. display

Sinal

Sinal é uma indicação visual, audível ou de outra forma que contem informação.

Sinal analógico é aquele que vária de modo continuo, suave, sem saltos em degrau. O parâmetro fundamental do sinal analógico é sua amplitude. Medir um sinal analógico é determinar o valor de sua amplitude. São exemplos de sinal analógico: 1. Sinal padrão pneumático de 20-100 kPa,

onde o 20 kPa corresponde a 0% e 100 kPa a 100%.

2. Sinal padrão eletrônico de 4-20 mA cc, onde o 4 mA cc corresponde a 0% e 20 mA a 100%.

3. As variáveis de processo são analógicas. Uma temperatura pode variar de 20 a 50 oC, assumindo todos os infinitos valores intermediários. Uma pressão de processo pode variar de 20 a 100 kPa, de modo continuo. Sinal digital ou discreto é aquele que só

pode assumir valores descontínuos. O sinal digital é constituído de pulsos ou de bits. Pulsos só podem ser contados; bits podem ser manipulados.

São exemplos de sinais digitais: 1. Saída de pulsos da turbina medidora de

vazão, onde cada pulso escalonada pode corresponder, por exemplo, a 1 litro/segundo de vazão. 2. palavra de 4 bits, 1101.

Função Matemática

Há funções ou tarefas que são tipicamente analógicas, como registro e controle de processo. Só é possível registrar um sinal analógico. Por exemplo, quando se quer registrar a vazão, tendo-se uma turbina medidora com saída de pulsos, deve-se converter o sinal de pulsos em analógico. O controle é também uma função analógica. O seu algoritmo fundamental, PID, é matematicamente analógico e continuo. O controle liga-desliga é um caso particular, com uma saída discreta (digital). Um controlador digital envolve uma tecnologia digital para executar a função analógica de controle.

Funções tipicamente digitais são alarme, contagem de eventos e totalização de vazão. Quando se totalizam pulsos escalonados de medição de vazão, basta contá-los. Quando se totaliza um sinal analógico proporcional à vazão, é necessário converter o sinal para digital e depois contar os pulsos correspondentes.

A indicação pode ser indistintamente analógica ou digital.

Fig. 4.6. Instrumento com display analógico e digital

Page 86: Metrologia 7a

Instrumentos de Medição

76

Um exemplo relacionando todos estes conceitos é a medição do tempo pelo relógio. O tempo é uma grandeza analógica. O tempo pode ser medido por um relógio mecânico, com tecnologia analógica e mostrador analógico. Tem-se engrenagens, molas, pinos acionando um ponteiro que percorre uma escala circular graduada. O ponteiro se move continuamente. Este mesmo tempo pode ser medido por um relógio eletrônico, com tecnologia digital mas com mostrador analógico. A tecnologia do relógio é digital pois tem um microprocessador e um cristal oscilante. A indicação é analógica, pois é constituída de escala e ponteiro. Porém, o ponteiro se move com pequenos saltos, mostrando que está sendo acionado por pulsos. Finalmente, o tempo pode ser indicado por um relógio digital. A tecnologia do relógio é digital e o indicador é também digital. O display são números que variam discretamente. Resumindo: a variável analógica tempo pode ser indicada através de relógio analógico (mecânico) ou digital (eletrônico) com display analógico (escala e ponteiro) ou digital (números).

Tecnologia

A tecnologia eletrônica pode ser analógica ou digital.

A base dos circuitos analógicos é o amplificador operacional, que manipula e computada variáveis analógicas (corrente e voltagem). Os componentes passivos (resistência, capacitor e indutor) servem para polarizar os circuitos. Os componentes ativos (transistores, amplificadores operacionais) operam na região de amplificação linear.

Instrumento digital usa circuitos e técnicas lógicas para fazer a medição ou para processar os dados. Basicamente, um instrumento digital pode ser visto como um arranjo de portas lógicas que mudam os estados em velocidades muito elevadas para fazer a medição. A base dos circuitos digitais são os circuitos integrados digitais, constituídos de portas lógicas (AND, OR, NAND, NOR, NOT), multivibradores (flip-flop), contadores e temporizadores. Atualmente, todos estes circuitos e lógicas estão integradas no microprocessador. Os circuitos digitais podem também executar as tarefas analógicas de amplificar e filtrar. Necessariamente, eles devem ter um estágio de conversão analógico-digital e eventualmente, de digital-analógico.

Display

O display ou readout é a apresentação visual dos dados. Ele pode ser analógico ou digital.

Display analógico é aquele constituído, geralmente, de uma escala fixa e um ponteiro móvel (pode haver escala móvel e ponteiro fixo). O ponteiro se move continuamente sobre a escala graduada, possibilitando a leitura do valor medido.

Display digital é aquele constituído por números ou dígitos. Os números variam de modo discreto, descontinuo, possibilitando a leitura do valor medido.

O fator mais importante favorecendo o instrumento digital, quando comparado com o analógico, é a facilidade de leitura. Quando o operador lê um instrumento analógico, ele deve se posicionar corretamente, fazer interpolação, usar espelho da escala, ou seja, ter um bom olho. A leitura analógica é suscetível a erro, subjetiva e demorada.

Fig. 4.7. Instrumentos com display digital

Comparação Analógica Versus Digital

Deve-se diferenciar um instrumento digital e um instrumento com display digital.

Instrumento digital é aquele em que o circuito necessário para obter a medição é de projeto digital. Um instrumento com display digital é aquele que o circuito de medição é de projeto analógico e somente a indicação é de projeto digital.

Um instrumento analógico com leitura digital é geralmente não mais preciso que o mesmo instrumento analógico com leitura analógica.

A principal vantagem do display digital é a conveniência de leitura, quando não se tem a preocupação de cometer erro de paralaxe, quando se posiciona erradamente em relação

Page 87: Metrologia 7a

Instrumentos de Medição

77

ao instrumento de leitura. Os psicólogos garantem que se cansa menos quando se fazem múltiplas leituras digitais.

Porém, a leitura de instrumento analógico é de mais rápida e fácil interpretação, principalmente quando se tem comparações entre duas medições. Por isso, mesmo a instrumentação eletrônica sofisticada com tecnologia digital possui medidores que simulam indicações analógicas. Por exemplo, o controlador single loop possui indicações da medição e do ponto de ajuste feitas através de gráfico de barras. Os relógios digitais foram muito populares na década de 80, porque eles eram novidade e mais baratos. Atualmente, há o reaparecimento de relógios com display analógico, com ponteiros e escala, porque sua leitura é mais rápida e fácil, pois se sabe o significado de certas posições dos ponteiros das horas e dos minutos.

A precisão é uma segunda vantagem do instrumento digital sobre o analógico. Embora a precisão dependa da qualidade e do projeto do instrumento, em geral, o instrumento digital é mais preciso que o analógico de mesmo custo. Tipicamente, a precisão do digital é de 0,1% e do analógico é de 1%.

Fig.4.8. Display analógico ou digital? A exatidão de qualquer instrumento está

relacionada com a calibração. Como a precisão de um instrumento digital depende da percentagem do valor medido e de mais ou menos alguns dígitos menos significativos (erro de quantização), o instrumento digital requer calibrações mais freqüentes que o instrumento analógico, cuja precisão depende apenas da percentagem do fundo de escala.

Os instrumentos digitais fornecem melhor resolução que os analógicos. A maior resolução dos instrumentos digitais reduz o número de faixas necessárias para cobrir a faixa de medição.

Erros do Contador Digital

O contador é o dispositivo de saída do instrumento com display digital. Os principais erros na medição com um contador eletrônico são:

1. erro de ±1 contagem 2. erro da base de tempo 3. erro de gatilho 4. erro sistemático. Quando uma medição é feita com um

contador eletrônico, existe uma incerteza no digito menos significativo de ±1 contagem. Esta incerteza é resultado da não-coerência entre o sinal de clock interno e o sinal de entrada. O erro causado por esta ambigüidade é em termos absolutos de ±1 contagem para a contagem total acumulada; o erro relativo diminui quando a contagem total acumulada cresce.

Qualquer erro que seja resultado da diferença entre a freqüência mestre real do clock e sua freqüência nominal é diretamente transferida em um erro de medição. Este erro é chamado de erro da base de tempo e é geralmente dado por um número adimensional expresso em partes por milhão.

O erro de gatilho é um erro aleatório causado pelo ruído no sinal de entrada e dentro do contador. O principal efeito do ruído é fazer o gatilho abrir em um período de tempo incorreto.

O erro sistemático existe no instrumento associado com sua calibração e depende de sua qualidade e período de tempo transcorrido depois da calibração.

Por exemplo, a precisão de um contador eletrônico Hewlett-Packard é de ±1 digito ± erro da base de tempo. Para medição de intervalo de tempo, a precisão do contador é de ± resolução ± erro da base de tempo ± erro do gatilho ± 2 ns. A precisão de um multímetro digital da Fluke, de 4 1/2 dígitos é de ±0,03% do valor medido + 2 dígitos para a faixa de voltagem cc. A precisão para voltagem ca depende da freqüência, por exemplo, para o multímetro Fluke 8050A: ±0,5% do valor medido + 10 dígitos entre 45 Hz e 1 kHz em todas as faixas.

Page 88: Metrologia 7a

Instrumentos de Medição

78

2.5. Instrumento Microprocessado

Função do Microprocessador Atualmente, o microprocessador está sendo

usado em toda parte e ganhando novas funções, abrindo novos caminhos para seus usuários. Isto é principalmente verdade na instrumentação. O instrumento baseado no microprocessador é chamado de inteligente. No instrumento convencional, a informação deve ser interpretada pelo operador inteligente; no instrumento inteligente a informação já é interpretada e fornecida num formato mais amigável, de modo que até um operador sem experiência pode entende-la (não necessariamente o operador precisa ser não inteligente).

O microprocessador revolucionou a instrumentação eletrônica. O uso de microprocessador em instrumentos aumentou drasticamente sua exatidão, expandiu suas capacidades, melhorou sua confiabilidade e forneceu uma ferramenta para desempenhar tarefas não imagináveis até então.

O instrumento a microprocessador se tornou extremamente versátil, onde os procedimentos de medição se tornaram mais facilmente administráveis, ajustes, calibração e teste se tornaram automáticos e o seu desempenho metrológico foi melhorado. O microprocessador fornece

1. procedimentos computacionais mais eficientes,

2. analise estatística dos resultados 3. resultados linearizados e corrigidos 4. funções programáveis. Houve uma mudança radical na filosofia do

projeto do instrumento. Como o microprocessador se tornou uma parte integral do instrumento, os enfoques são totalmente diferentes com relação à estrutura, circuito e controle do instrumento. As principais vantagens do instrumento microprocessado são:

1. multi funcionalidade estendida e expandida em programas flexíveis,

2. consumo de energia foi reduzido drasticamente,

3. adaptação fácil a interfaces padrão de bus para sistemas integrados de medição

4. facilidade de controle por causa da interface

5. operação e uso mais simples, economizando tempo.

6. tamanho miniaturizado 7. confiabilidade maior, por ter poucos

componentes, componentes mais confiáveis por causa do encapsulamento

que o torna imune à umidade e temperatura.

Multifuncionalidade A idéia de instrumento multifuncional não é

nova. Porém, sem o uso do microprocessador, um instrumento multifuncional era, na prática, a montagem de várias sub-unidades funcionais em um único invólucro. Em serviço, o usuário escolhia sua função através de chaves convenientes. Deste modo, ele montava as várias sub-unidades em uma configuração adaptada para medir a função escolhida. O algoritmo de projeto do instrumento ficava inalterado. O instrumento multifunção convencional usava lógica fixa com todos os circuitos e fios físicos soldados (hard-wired). Esta forma de lógica contradiz a multifuncionalidade e eficiência. Sempre havia problemas para controlar e chavear as várias funções do instrumento.

O microprocessador, como parte integrante do instrumento, tornou a lógica fixa do instrumento multifuncional em programável. O programa que executa suas múltiplas funções fica armazenado em memórias eletrônicas (ROM ou PROM). Por este motivo, o instrumento microprocessador é também chamado de programa armazenado. A lógica armazenada torna o instrumento fácil de ser programado e de ser atualizado, sem mudanças significativas no circuito. A lógica programável tornou o preço do instrumento muito menor, por causa da padronização e simplicidade dos componentes.

Exatidão melhorada A exatidão do instrumento microprocessado

foi muito melhorada. Os erros sistemáticos podem ser diminuídos por vários motivos:

1. um ajuste de zero automático no início de cada medição,

2. uma auto-calibração automática 3. auto-teste e auto-diagnose. 4. medição replicada do valor e a

computação estatística para dar o resultado mais esperado.

5. apresentação do resultado em display de modo que os resultados estranhos são descartados.

Capacidades expandidas O microprocessador estende e expande as

capacidades do instrumento, tornando-o adaptável a várias formas de técnicas de medição, como medição inferencial (indireta) e acumulativa.

O instrumento microprocessado pode fazer várias medições simultâneas e fazer computações matemáticas complexas destes sinais, para compensar, linearizar e filtrar os

Page 89: Metrologia 7a

Instrumentos de Medição

79

resultados finais. Em resposta a um simples comando entrado através de seu teclado, o microprocessador pega a técnica de medição certa, armazena os resultados das várias medições diretas, faz os cálculos e apresenta o resultado final condicionado no display. A medição é indireta, porém ela parece direta para o operador.

Por exemplo, na medição da vazão de gases, um computador de vazão microprocessado recebe os sinais correspondentes ao medidor de vazão (transmissor associado à placa, turbina, vortex), pressão, temperatura e composição. Todos estes sinais são computados internamente e o totalizador pode apresentar o valor da vazão instantânea compensada em massa ou volume, o valor do volume ou massa acumulado e a densidade do gás. Para o operador, tudo parece como se o computador estivesse fazendo a medição diretamente da vazão mássica.

Em outro exemplo, seja a medição da potência dissipada através de um resistor por um voltímetro microprocessado. O operador diz ao voltímetro para medir a resistência do resistor, armazenar o resultado e depois medir a voltagem através do resistor e finalmente computar a potência.

Controle simplificado Inicialmente, se pensa que o instrumento

multifunção programável é mais complicado. O instrumento inteligente possui um conjunto de teclas (teclado) externo e na sua parte frontal. Através das teclas diretas ou combinação de teclas se pode selecionar as funções, faixas e modos de medição. Por exemplo, um voltímetro digital tem um teclado com 17 teclas e pode fornecer um total de 44 combinações de funções, faixas e modos. O instrumento ainda pode ter alarmes que operam quando o operador faz movimentos errados e aperta teclas incompatíveis.

Operações matemáticas do resultado É possível que o operador queira uma

função matemática de um resultado e não somente no resultado em si. O instrumento microprocessado pode fornecer várias transformações funcionais, como:

1. multiplicar o resultado por um fator constante

2. apresentar o erro absoluto da medição

3. apresentar o erro percentual da medição

4. subtrair uma constante do resultado 5. dividir o resultado por uma constante

6. apresentar o resultado em unidades logarítmicas

7. linearizar resultados

Análise estatística Os instrumentos microprocessados podem

gerar o valor médio, valor eficaz (root mean square), a variância, o desvio padrão de uma variável aleatória sendo analisada e o coeficiente de correlação de duas variáveis aleatórias. Há instrumentos microprocessados projetados especificamente para fazer a analise estatística dos sinais.

Melhoria do Desempenho Metrológico As características metrológicas do

instrumento são aquelas diretamente relacionados com seu desempenho, em geral e com sua precisão, em particular.

Todo instrumento está sujeito a erros sistemáticos, aleatórios e acidental. Todos estes erros podem ser minimizado nos instrumentos a microprocessador.

Geralmente, os erros sistemáticos são provocados por desvio do zero, desvio do fator de ganho do circuito condicionador de sinal e não linearidades internas do instrumento.

O microprocessador incorporado no instrumento pode eliminar os erros sistemáticos.

Ele elimina o erro de desvio de zero, armazenando o valor correspondente ao zero do instrumento e subtraindo automaticamente este valor das leituras do instrumento.

Ele elimina o erro de ganho do instrumento, armazenando um número quando o instrumento é desligado e que corresponde a um valor definido da voltagem de entrada. Quando o instrumento é religado para fazer novas medições, o instrumento microprocessado faz comparações e usa um fator de correção para aplicar nas novas medições.

O instrumento pode ainda fazer correções para os erros devidos a variação da freqüência do sinal (o ganho do condicionador de sinal em uma dada freqüência é diferente do ganho em sua freqüência de referência.) O instrumento armazena na memória a sua freqüência de referência e corrige as medições para as diferentes freqüências.

Os erros aleatórios não podem ser antecipados e evitados. O máximo que o operador pode fazer é minimizar seus efeitos, fazendo um tratamento estatístico de todas as medições replicadas. Deste modo, o instrumento microprocessado armazena os resultados das medições repetidas e faz o seu processamento em algoritmos apropriados para determinar média, desvio padrão e erro

Page 90: Metrologia 7a

Instrumentos de Medição

80

aleatório relativo. O instrumento pode, por exemplo, determinar a média esperada, testar a hipótese que as probabilidades do erro aleatório são normalmente distribuídas e computar os limites de erros aleatórios.

Compensação do ruído interno Esta característica melhora a sensitividade

do instrumento e estende sua faixa, possibilitando a medição de valores muito pequenos. Para fazer isso, o microprocessador acha o valor eficaz (rms) do sinal e do ruído.

Vantagens Um instrumento microprocessado é a

melhor solução quando: 1. o instrumento deve ser multifuncional,

programável e versátil 2. o sistema de medição deve ser

expandido acomodar várias funções 3. o sistema de medição deve ser

interfaceado com um sistema digital 4. os dados devem ser armazenados em

memória 5. um grande número de estados lógicos

devem ser mantidos na memória 6. as medições feitas por técnicas indiretas

e cumulativas e o procedimento deve ser automatizado

7. é especificado um alto desempenho metrológico, impossível de ser obtido por métodos convencionais

8. são essenciais a autocalibração e autodiagnose

9. o processamento estatístico dos dados deve ser parte do procedimento de medição e feito automaticamente

10. as incertezas das medições devem ser determinadas e apresentadas no display, em linha do processo

11. há necessidade de transformações funcionais matemáticas, como linearização, conversão de resultados, compensação através de cálculos complexos

Por causa de todas estas vantagens, o microprocessador chegou e vai ficar por muito tempo nos campos da medição e instrumentação. Ele é a base do progresso que a ciência e a tecnologia tiveram nos últimos e próximos anos.

Desvantagens Há também várias razões para questionar o

uso do instrumento microprocessado, algumas subjetivas e outras objetivas. As mais importantes são:

Há a barreira psicológica, de algumas pessoas que desconhecem o microprocessador ainda duvidam e não aceitam os benefícios transparentes do

microprocessador. Muitos acham que o microprocessador é muito complicado e economicamente não é atraente. Muitos acham que não necessitam de toda a capacidade do microprocessador e por isso a sua aplicação seria ociosa e exagerada. Outros acham que o microprocessador está associado a um programa (software) que é outro motivo de repulsa, pois o seu custo é maior que o do microprocessador.

Fig. 4.8. Instrumentos microprocessados Todas estas questões são facilmente

resolvidas. Embora internamente o microprocessador tenha milhares (e até milhões) de componentes, esta complexidade não requer que o seu usuário a entenda. Mesmo complexo, o microprocessador é estável e confiável, muito mais que qualquer circuito com componentes discretos. Embora a maioria utilize somente uma pequena parte da capacidade total do microprocessador, ainda assim a sua aplicação é economicamente vantajosa. O software associado ao microcomputador é também complexo e pode ter os seus besouros (bugs), porém o usuário não precisa conhece-lo. Geralmente o software está gravado em uma memória ROM (ou PROM) e as eventuais modificações ou melhorias são feitas pelo fabricante e os benefícios são do usuário final.

Page 91: Metrologia 7a

Instrumentos de Medição

81

3. Sistema de Medição

3.1. Conceito Embora haja vários tipos de controle, vários

níveis de complexidade, vários enfoques diferentes, há um parâmetro em comum no controle, monitoração e alarme do processo: a medição das variáveis e grandezas do processo. A medição é fundamental. A base de um controle correto é a medição precisa da variável controlada.

A instrumentação para fazer estas medições é vital para a indústria. O uso de instrumentação em sistemas como casa de força, indústrias de processo, máquinas de produção automática, com vários dispositivos de controle, manipulação e segurança revolucionou e substituiu velhos conceitos. Os instrumentos tem produzido uma grande economia de tempo e mão de obra envolvida. Os sistemas de instrumentos agem como extensões dos sentidos humanos e facilitam o armazenamento da informação de situações complexas. Por isso, a instrumentação se tornou um componente importante das atividades rotineiras da indústria e contribuiu significativamente para o desenvolvimento da economia.

Um sistema completo de medição consiste dos seguintes elementos básicos:

1. elemento sensor ou elemento transdutor, que detecta e converte a entrada desejada para uma forma mais conveniente e prática a ser manipulada pelo sistema de medição. O elemento sensor é também chamado de elemento primário ou transdutor. Ele constitui a interface do instrumento com o processo.

2. elemento condicionador do sinal, que manipula e processa a saída do sensor de forma conveniente. As principais funções do condicionador de sinal são as de amplificar, filtrar, integrar e converter sinal analógico-digital e digital-analógico.

3. o elemento de apresentação do dado, que dá a informação da variável medida na forma quantitativa. O elemento de apresentação de dado é também chamado de display ou readout. Ele constitui a interface do instrumento com o operador do processo.

Os elementos auxiliares aparecem em alguns instrumentos, dependendo do tipo e da técnica envolvida. Eles são:

1. elemento de calibração para fornecer uma facilidade extra de calibração embutida no instrumento. Os transmissores inteligentes possuem esta

capacidade de auto-calibração incorporada ao seu circuito.

2. elemento de alimentação externa para facilitar ou possibilitar a operação do elemento sensor, do condicionador de sinal ou do elemento de display.

3. elemento de realimentação negativa para controlar a variação da quantidade física que está sendo medida. Este elemento possibilita o conjunto funcionar automaticamente, sem a interferência do operador externo.

Por exemplo, no indicador analógico de pressão com bourdon C, o elemento sensor é o tubo metálico em forma de C. A pressão a ser medida é aplicada diretamente no sensor que sofre uma deformação elástica, produzindo um pequeno movimento mecânico. A entrada do sensor é a pressão e a saída é um movimento mecânico. Este pequeno movimento é mecanicamente amplificado por meio de engrenagens e alavancas, que constituem os elementos condicionadores do sinal. Finalmente, um ponteiro é fixado na engrenagem e executa uma excurso angular sobre uma escala graduada em unidade de pressão. O conjunto escala e ponteiro constitui o elemento de apresentação de dados. Este instrumento é analógico e seu funcionamento é mecânico. Ele não requer alimentação externa, pois utiliza a própria energia da pressão para funcionar.

Em outro exemplo, no indicador digital de pressão com strain-gage, o strain-gage é o elemento sensor que detecta a pressão a ser medida. A pressão medida varia a resistência elétrica do strain-gage. A entrada do strain-gage é a pressão e a saída é uma resistência elétrica. A variação da resistência é linearmente proporcional à pressão medida. A resistência do strain-gage faz parte de um circuito elétrico, chamado de ponte de Wheatstone. A ponte de Wheatstone é um condicionador de sinal. Através de uma polarização externa e um balanço de nulo, é possível determinar a variação da resistência elétrica do strain-gage. O circuito da ponte também processa o sinal elétrica, amplificando-o, filtrando-o de ruídos externos e, no caso, convertendo-o para pulsos para dar uma indicação final digital. Este instrumento é eletrônico e a indicação é digital. A apresentação de dados não é feita através do conjunto escala e ponteiro, mas de um conjunto de dígitos.

Page 92: Metrologia 7a

Instrumentos de Medição

82

3.2. Sensor O elemento sensor não é um instrumento

mas faz parte integrante da maioria absoluta dos instrumentos. O elemento sensor ou elemento transdutor é o componente do instrumento que converte a variável física de entrada para outra forma mais usável.

Os nomes alternativos para o sensor são: transdutor, elemento transdutor, elemento primário, detetor, probe, pickup ou pickoff. O nome correto e completo do transdutor recomendado pela norma ISA 37.1 (1982) inclui:

1. o nome transdutor, 2. variável sendo medida, 3. modificadora restritiva da variável, 4. princípio de transdução, 5. faixa de medição, 7. unidade de engenharia. Exemplos de elementos sensores: 1. Transdutor pressão diferencial,

potenciométrico, 0-100 kPa. 2. Transdutor pressão de som capacitivo,

100-160 dB. 3. Transdutor de pressão absoluta a strain-

gage amplificador, 0-500 MPa. 4. 0-300 oC, resistivo, superfície,

temperatura, transdutor. Os elementos sensores podem ser

classificados conforme a natureza do sinal de saída como:

1. mecânicos 2. eletrônicos As principais vantagens do sinal eletrônico

sobre o mecânico são: 1. não há efeitos de inércia e atrito, 2. a amplificação é mais fácil de ser obtida 3. a indicação e o registro à distância são

mais fáceis. A unidade dimensional da entrada

geralmente é diferente da unidade da saída. Quando as unidades forem iguais, o elemento funcional pode ser chamado de transformador.

O elemento sensor depende principalmente da variável sendo medida.

Terminologia De um modo geral, transdutor é o elemento,

dispositivo ou instrumento que recebe a informação na forma de uma quantidade e a converte para informação para esta mesma forma ou outra diferente. Aplicando este definição, são transdutores: elemento sensor, transmissor, transdutor i/p e p/i, conversor eletrônico analógico-digital. Para padronizar a linguagem foi publicada a norma ISA 37.1 que recomenda o seguinte:

1. elemento sensor ou elemento transdutor para o dispositivo onde a entrada e a

saída são ambas não-padronizadas e de naturezas iguais ou diferentes.

2. transmissor para o instrumento onde a entrada é não-padronizada e a saída é padronizada e de naturezas iguais ou diferentes.

3. transdutor ou transdutor de sinal para o instrumento onde a entrada e a saída são ambas padronizadas e de naturezas diferentes.

4. conversor para o instrumento eletrônico onde a entrada e a saída são ambas de natureza elétrica mas com características diferentes, como o conversor A/D (analógico para digital), D/A (digital para analógico) e conversor I/F (corrente para freqüência).

Sensores Mecânicos O elemento sensor mecânico recebe na

entrada a variável de processo e gera na saída uma grandeza mecânica, como movimento, força ou deslocamento, proporcional a esta variável.

O elemento sensor mecânico não necessita de nenhuma fonte de alimentação externa para funcionar; ele é acionado pela própria energia do processo ao qual está ligado.

Fig. 4.9. Sensores mecânicos de pressão Exemplos de elementos sensores

mecânicos: tubo bourdon, para a medição de pressão; bimetal, para a medição de temperatura; conjunto placa de orifício-sensor de pressão diferencial para a medição de vazão.

Nem todas as variáveis de processo podem ser medidas mecanicamente. Por exemplo, a análise química, o pH, a condutividade elétrica não podem ser medidas por meios mecânicos.

Sensores Eletrônicos O elemento sensor eletrônico recebe na

entrada a variável de processo e gera na saída uma grandeza elétrica, como voltagem, corrente elétrica, variação de resistência, capacitância ou indutância, proporcional a esta variável.

Page 93: Metrologia 7a

Instrumentos de Medição

83

Há elementos sensores ativos e passivos. Os elementos ativos geram uma tenso ou

uma corrente na saída, sem necessidade de alimentação externa. Exemplo de elementos sensores eletrônicos ativos: o cristal piezelétrico para a medição da pressão; o termopar para a medição da temperatura e os eletrodos para a medição de pH. Os circuitos que condicionam estes sinais necessitam de alimentação externa.

Os elementos passivos necessitam de uma polarização elétrica externa para poder variar uma grandeza elétrica passiva para medir a variável de processo. As grandezas elétricas variáveis são: a resistência, a capacitância e a indutância. Exemplo de elementos sensores passivos eletrônicos: a resistência detetora de temperatura, a célula de carga (strain gage) para a medição de pressão e de nível, a bobina detetora para a transdução do sinal de corrente para o sinal padrão pneumático.

Fig. 4.10. Sensores elétricos de temperatura: termopar e RTD

Os elementos sensores eletrônicos, por sua

vez, podem ser classificados de acordo com o formato da sua saída como analógicos e digitais.

Os elementos sensores eletrônicos analógicos podem ser do tipo potenciométrico, indutivo, capacitivo, piezoelétrico, strain-gage e de ionização. Os elementos sensores eletrônicos digitais podem ser do tipo gerador de freqüência ou codificador digital.

Praticamente, toda variável de processo pode ser medida eletronicamente.

Características Desejáveis do Sensor Em certos casos, o sensor do sinal de

entrada pode aparecer discretamente em dois ou mais estágios, tendo-se o elemento primário, secundário e terciário. Em outros casos, o conjunto pode ser integrado em um único elemento.

Algumas características desejáveis de um elemento sensor que devem ser consideradas em sua especificação e seleção para uma determinada aplicação são:

1. o elemento sensor deve reconhecer e detectar somente o sinal da variável a ser medida e deve ser insensível aos outros sinais presentes simultaneamente na medição. Por exemplo, o sensor de velocidade deve sentir a velocidade instantânea e deve ser insensível a pressão e temperatura locais.

2. o sensor não deve alterar a variável a ser medida. Por exemplo, a colocação da placa de orifício para sentir a vazão, introduz uma resistência à vazão, diminuindo-a. A vazão diminui quando se coloca a placa para medi-la.

3. o sinal de saída do sensor deve ser facilmente modificado para ser facilmente indicado, registrado, transmitido e controlado. Por isso, atualmente os sensores eletrônicos são mais preferidos que os mecânicos, pois são mais facilmente indicados e manipulados.

4. o sensor deve ter boa exatidão. 5. o sensor deve ter boa precisão,

constituída de linearidade, repetitividade e reprodutibilidade.

6. o sensor deve ter linearidade de amplitude.

7. o sensor deve ter boa resposta dinâmica, respondendo rapidamente às variações da medição.

8. o sensor não deve induzir atraso entre os sinais de entrada e de saída, ou seja, não deve provocar distorção de fase.

9. o sensor deve suportar o ambiente hostil do processo sem se danificar e sem perder suas características. O sensor deve ser imune à corrosão, erosão, pressão, temperatura e umidade ambientes.

10. o sensor deve ser facilmente disponível e de preço razoável.

3.3. Condicionador do Sinal A saída do elemento sensor geralmente

ainda não é conveniente para operar diretamente um indicador, um registrador ou um controlador. Assim, deve-se adicionar um outro elemento para processar, modificar e converter o sinal de saída do sensor em outro sinal mais adequado em forma e amplitude.

O sinal de saída do sensor pode ser alimentado para a entrada do elemento condicionador através de vários modos, como:

Page 94: Metrologia 7a

Instrumentos de Medição

84

1. link mecânico, como engrenagem, alavanca, haste, eixo,

2. cabo elétrico, 3. fluido, como óleo (hidráulico), ar

comprimido (pneumático). 4. componente eletrônico, como

potenciômetro, capacitor e indutor. A transmissão do sinal pode ser feita

fisicamente através de fios elétricos (corrente ou voltagem) ou através de tubos pneumáticos. O sinal pode também ser transmitido por telemetria, usando-se ondas de rádio ou linhas telefônicas.

As operações de condicionamento de sinal mais comuns são:

1. amplificação 2. filtro 3. compensação 4. linearização 5. diferenciação, integração 6. conversão analógico-digital ou digital-

analógico 7. amostragem do sinal 8. computação matemática, como soma,

subtração, divisão, multiplicação, extração de raiz quadrada.

9. seleção de sinal, como o máximo, mínimo ou médio.

Amplificador Amplificar um sinal é aumentar sua

amplitude sem afetar sua forma de onda. O fenômeno inverso é chamado de atenuação, i.e., redução da amplitude do sinal mantendo sua forma de onda original. Pode-se dizer que atenuação é uma amplificação com ganho menor que 1.

O sinal de saída do sensor precisa ser amplificado para operar os mecanismos de indicação ou registro. Por isso, um elemento conveniente de amplificação deve ser incorporado no elemento de condicionamento de sinal, que pode ser um dos seguintes, dependendo do tipo do sinal do sensor: 1. elemento de amplificação mecânica, como

alavanca, engrenagem ou sua combinação, projetado para ter um efeito multiplicador no sinal mecânico de saída do sensor.

2. elemento de amplificação pneumática, empregando vários tipos de restrições, foles, bicos e palhetas, para dar variação significativa na pressão com pequena variação nos parâmetros de entrada. É clássico o conjunto bico-palheta-relé pneumático para gerar o sinal padrão pneumático de 3-15 psig.

3. elemento de amplificação óptica, em que lentes, espelhos e lâmpadas podem ser combinados para converter pequenos deslocamentos de entrada em maiores

sinais de saída para uma indicação conveniente.

4. elemento de amplificação elétrica, empregando transistores, circuitos integrados e elementos de polarização para aumentar a amplitude do sinal do transdutor. O amplificador eletrônico é o mais versátil e conhecido. Ele pode amplificar voltagem ou corrente (potência).

Filtro Filtrar um sinal é remover os sinais de ruído

indesejáveis que tendem a obscurecer o sinal do sensor. O elemento de filtro do sinal pode ser do seguinte tipo, dependendo da natureza do sinal:

1. filtro mecânico, consistindo de elementos mecânicos para proteger o elemento sensor dos vários sinais externos de interferência. Um fluido viscoso no interior de um bourdon amortece as oscilações do ponteiro do manômetro.

2. filtro pneumático, consistindo de restrições e capacitâncias. Restrições na entrada dos instrumentos pneumáticos eliminam ruídos do sinal de 3-15 psig da transmissão. Potes capacitivos também são usados para amortecer picos no sinal pneumático.

3. filtro elétrico, consistindo de resistores, capacitores e indutores. Há filtros ativos, usando amplificadores operacionais. Os filtros servem para eliminar os picos e ruídos devidos aos campos elétrico e magnético.

Compensador Compensar um sinal é eliminar

continuamente a interferência de outros sinais. Por exemplo, a medição de vazão volumétrica de gases é influenciada pela temperatura e pressão do processo. Quando a vazão é constante mas há variação da pressão e da temperatura do processo, aparece erro na indicação. Faz-se a compensação da medição de vazão de fluido compressível medindo-se continuamente a vazão, a pressão e a temperatura. Os três sinais entram em um computador analógico que elimina os efeitos da pressão e da temperatura.

Quando uma medição é influenciada por um parâmetro fixo, faz-se a polarização da medição. Polarizar um sinal é multiplicar o sinal por uma constante. Por exemplo, quando se projeta um medidor de vazão de gás para uma determinada pressão e se trabalha em outra pressão constante, multiplica-se a medição por um fator constante. Como a pressão do processo é assumida constante, não é necessário medi-la continuamente para fazer a

Page 95: Metrologia 7a

Instrumentos de Medição

85

compensação; basta conhecer o seu valor e usar um fator de multiplicação na indicação. Compensar é tirar o efeito de um valor variável; polarizar é tirar o efeito de um valor constante.

Na medição das variáveis de processo é importante definir as condições do processo e do ambiente. O instrumento pode apresentar grandes erros quando as condições reais são diferentes das condições especificadas.

Fig. 4.11. Medição de vazão de gás com

compensação da pressão e da temperatura São disponíveis instrumentos chamados

computadores analógicos que realizam as operações matemáticas de soma, subtração, multiplicação, divisão, elevação ao quadrado, extração de raiz quadrada, úteis na compensação e linearização de sinais. Com a instrumentação inteligente, baseada em microprocessadores, esta capacidade de computação matemática, lógica, seqüencial e intertravamento está integrada ao circuito.

Linearizador Linearizar um sinal não-linear é torna-lo

linear. Só se lineariza sinais não-lineares, aplicando-se a função matemática inversa. Por exemplo, lineariza-se um sinal quadrático extraindo-se sua raiz quadrada. Lineariza-se um sinal exponencial aplicando seu logaritmo.

A linearização de um sinal não-linear pode ser feita de vários modos diferentes, tais como:

1. escolha da porção linear da curva, como na aplicação de medição de temperatura por termopares. Cada tipo de termopar

apresenta uma região linear para determinada faixa de temperatura.

2. uso de uma escala não-linear, como na aplicação de medição de vazão por placa de orifício. Como a placa gera um pressão diferencial proporcional ao quadrado da vazão volumétrica, usa-se uma escala raiz quadrática (que a maioria das pessoas insiste, erradamente, em chamar de quadrática). Quando se usam termopares para medição de temperatura incluindo as regiões não-lineares, deve-se usar a escala especifica do termopar, como tipo K, J, R, S, T, E e B.

3. uso de computadores analógicos linearizadores (hardware), como o instrumento extrator de raiz quadrado do sinal de pressão diferencial proporcional ao quadrado da vazão volumétrica, gerado pela placa de orifício.

4. uso de circuitos linearizadores (hardware), incorporados no circuito do transmissor ou do instrumento receptor.

5. uso de pontos de curva de linearização, armazenados em ROMs ou PROMs (firmware), como no sistema de linearização de baixa vazão em turbinas medidoras.

6. uso de programas (software) de linearização em sistemas digitais, como nos computadores de vazão ou sistemas digitais de aquisição de dados. Durante a configuração do sistema, tecla-se o tipo de não-linearidade do sinal de entrada e o sistema automaticamente lineariza o sinal.

Conversor Analógico-Digital As variáveis de processo são analógicas, ou

seja, variam continuamente de 0% a 100% assumindo todos os infinitos valores intermediários. A função de totalização é matemática discreta ou digital. Hoje, a maioria dos instrumentos eletrônicos usa tecnologia digital. Assim, é necessário um dispositivo para converter o sinal analógico do mundo externo para um sinal digital, para ser manipulado pelos circuitos digitais.

Quando se usa controle com realimentação negativa, há atuação no processo analógico. Quando se usa instrumentação digital, é também necessário converter o sinal digital do sistema para o sinal analógico de atuação no processo. Tem-se, assim, o conversor digital-analógico.

Em instrumentação, é também comum um único indicador, registrador e controlador ser compartilhado por centenas ou milhares de sinais. Para fazer esta operação, foi

FCV FE

FT

TT

PT FY FY FIC

x/÷ √

multiplicador - divisor

extrator raiz quadrada

controlador de vazão

sinal quadrático de vazão

sinal linear de vazão

Page 96: Metrologia 7a

Instrumentos de Medição

86

desenvolvido um circuito eletrônico chamado de multiplexador. O multiplexador possibilita o uso de um único instrumento por vários sinais de entrada. O circuito toma um sinal por vez, manipula-o e passa para o seguinte, numa varredura automática. Como a sua freqüência de operação é muito maior que a freqüência natural dos sinais manipulados, não há problemas práticos quando o sinal fica no ar. Este tempo de não-utilização do sinal é tão pequeno que o sinal não percebe. Também, há circuito de demultiplexação, que converte um único sinal em muitos.

Estes circuitos de conversão analógico-digital, digital-analógico, multiplexação, demultiplexação podem ser incorporados em um único instrumento, economizando espaço e facilitando ligações. Por exemplo, modem é um equipamento de modulação-demodulação, que faz as funções de multiplexação, conversão analógico-digital, conversão digital-analógico e demultiplexação.

Transmissor A transmissão é uma função auxiliar,

opcional, pois nem toda malha de indicação, registro ou controle necessita do transmissor. Mesmo os instrumentos montados no painel central não necessitam obrigatoriamente do transmissor. Por exemplo, as indicações locais de temperatura com termopar ou resistência elétrica podem ser sem transmissor.

Transmissor é o transdutor que responde a uma variável medida por meio de um elemento sensor e a converte para um sinal de transmissão padrão que é função somente da variável medida. O transmissor sente a variável de processo e gera na saída um sinal padrão, proporcional ao valor desta variável.

O transmissor é aplicado para 1. enviar sinais para manipulação remota, 2. padronizar sinais e 3. isolar sinais. Os sinais padrão de transmissão são: 1. pneumático, de 10 a 100 KPa (3 a 15

psig) 2. eletrônico, de 4 a 20 mA cc. São pouco usados: 0 a 20 mA cc (não é

faixa detetora de erro), 10 a 50 mA cc (nível elevado e perigoso), 1 a 5 V cc (tensão não é conveniente para a transmissão).

Na instrumentação, há uma resistência de chamar o transmissor de vazão de transmissor, preferindo-se, erradamente, chamá-lo de conversor. Assim, o instrumento que recebe o sinal de militensão alternada do tubo magnético deve ser chamado de transmissor de vazão. Aliás, o tag deste instrumento é FT e não FY.

O medidor de vazão tipo alvo (target) possui um transmissor pneumático ou eletrônico incorporado ao seu circuito.

Os transmissores pneumáticos se baseiam no sistema bico-palheta e através da realimentação negativa por equilíbrio de forças ou de movimentos, converte o movimento do elemento de medição (pressão, temperatura, vazão, nível) no sinal padrão de 20 a 100 kPa. São alimentados com a pressão nominal de 120 a 140 kPa e possuem a precisão típica de 0,5% do valor medido.

Fig. 4.12. Transmissor eletrônico

Os transmissores eletrônicos se baseiam no

amplificador operacional e através de detectores indutivos, capacitivos ou resistivos, convertem o sinal da variável (pressão, temperatura, vazão, nível) no sinal padrão de corrente de 4 a 20 mA cc. São alimentados com a voltagem nominal de 24 V cc, através de 2 (mais usado), 3 ou 4 fios e possuem a precisão típica de 0,5% do fundo de escala.

Em 1983, a Honeywell lançou no mercado o primeiro transmissor que incorporava o microprocessador em seu circuito eletrônico, chamado de transmissor inteligente (smart transmiter). Pelo fato de ter um microprocessador, o transmissor possui funções adicionais, tais como:

1. linearização do sinal dos elementos sensores individuais, tais como extrator de raiz quadrada, linearização de sinais de termopares específicos,

2. compensação adequada das variações de temperatura e de pressão estática do fluido que atuam sobre o transmissor, substituindo os computadores analógicos

3. auto-calibração, onde o próprio transmissor faz as operações de ajustes de zero e de fundo de escala, a partir da sala de controle.

Page 97: Metrologia 7a

Instrumentos de Medição

87

4. mudança da faixa calibrada, possibilitando o aumento da rangeabilidade da medição, passando de 10:1 para 400:1

5. auto-diagnose de seus circuitos e peças internas, informando ao instrumentista a existência de problema no circuito, o diagnóstico e a natureza do problema.

6. fixação do valor da variável no último valor alcançado, quando há irregularidades na malha.

7. visualização do sinal de saída, dos dados de configuração, da faixa calibrada e de outros parâmetros, através de um comunicador portátil, que se liga em qualquer ponto da linha de transmissão.

Vários transmissores inteligentes podem ser ligados, através de uma conexão RS 232C, a computador pessoal, que pode configurar os transmissores por meio de um programa adequado.

O transmissor inteligente possui a saída de 4 a 20 mA cc além da saída digital (a partir de 1986), para que o sistema não necessite do conversor A/D (para o transmissor) e o D/A (para o instrumento receptor).

A precisão típica do transmissor inteligente é de 0,1% do fundo de escala.

Transdutor Genericamente, transdutor é qualquer

dispositivo que altera a natureza do sinal recebido na entrada com o gerado na saída. Deste ponto de vista, o elemento sensor, o transmissor, o conversor são considerados transdutores.

Em instrumentação, transdutor é o instrumento que converte um sinal padrão de transmissão em outro sinal padrão de transmissão. Deste modo, tem-se o transdutor p/i, que converte o sinal pneumático no sinal padrão de corrente eletrônica e o transdutor i/p, que converte o sinal padrão de corrente elétrica em sinal padrão pneumático.

O transdutor é aplicado para possibilitar a utilização de instrumentos pneumáticos e eletrônicos na mesma malha. Eles são chamados incorretamente de conversores.

O transdutor serve de interface entre a instrumentação pneumática e a eletrônica. Como o elemento final de controle mais usado é a válvula com atuador pneumático, o transdutor I/P é usado principalmente para casar a instrumentação eletrônica de painel com a válvula com atuador pneumático.

3.4. Apresentação do Sinal O elemento de apresentação do sinal

recebe o sinal da saída do condicionador e apresenta o mesmo para ser lido pelo operador. Ele é também chamado de display ou readout.

Este elemento pode ser do tipo display visual (indicador ou visor), registro gráfico (registrador) ou registro magnético em fita ou disco (memória de massa de computador).

O elemento de display deve ter 1. resposta mais rápida possível, 2. impor o menor arraste possível no

sistema, 3. ter a mínima inércia e atrito.

Indicador Indicador é o instrumento de medição que

mostra o valor instantâneo da variável no seu display. O display pode ser analógico ou digital.

O indicador analógico tem uma escala fixa com um ponteiro móvel ou uma escala móvel e um ponteiro fixo. Quanto maior o tamanho da escala, maior a resolução da medição e maior o número de algarismos significativos. A escala pode ser curva ou reta, horizontal ou vertical.

Fig. 4.13. Erro de paralaxe Na leitura de instrumentos analógicos com

escala e ponteiro deve-se olhar perpendicularmente à escala, evitando o erro de paralaxe. O erro de paralaxe é cometido quando se observa o ponteiro obliquamente e lê-se a maior em uma escala crescente, quando se está à esquerda do ponteiro e a menor, quando se está à direita do ponteiro.

O indicador digital possui números para apresentar o valor da variável medida. Quanto maior a quantidade de dígitos, maior é a resolução da medição e maior o número de algarismos significativos indicado. O número de algarismos significativos, porém, deve ser consistente com a precisão do resto do sistema de medição.

Os indicadores digitais são classificados de acordo com o número de dígitos totais

Page 98: Metrologia 7a

Instrumentos de Medição

88

mostrados. Por exemplo, tem-se indicadores com 3 ou 4 dígitos. Cada um destes dígitos pode assumir valores entre 0 a 9. Tem-se também instrumento com meio dígito. O meio dígito só pode assumir valores de 0 ou 1. A vantagem de se usar um instrumento com meio dígito são as seguintes:

1. tem-se um instrumento pouco mais caro que o de dígito inteiro, por exemplo, um instrumento de 3 ½ dígitos tem aproximadamente o mesmo custo que o de 3 dígitos,

2. pode-se estender a precisão de uma faixa em 100%, ou seja, pode-se medir com dois algarismos depois da vírgula até 19,99 (3 ½ dígitos e não apenas até 9,99 (3 dígitos).

Por exemplo, para se medir o valor de 10,024 V deve-se ter um instrumento com 5 dígitos. O de 4 dígitos faria a leitura de 10,02. Porém, o instrumento com 4 ½ dígitos pode fazer a leitura de 10,024 V, mantendo leituras com 3 dígitos depois da vírgula até 19,999. Diz-se, então que o instrumento com 4 ½ dígitos possui um overrange (sobrefaixa) de 100% em relação ao de 4 dígitos, pois a relação de leituras com três algarismos depois da vírgula é de

19,999/9,999 = 100% Do mesmo modo, tem-se instrumento com 4

¾ dígitos, com sobrefaixa de 200% e onde o dígito de ¾ pode assumir valores de 0, 1 e 2.

Fig. 4.14. Escala analógica de indicador Na leitura do indicador digital não há

problema de erro de paralaxe. Porém, é possível se cometer erros de leitura, quando os LEDs de indicação do dígito estão queimados. Por exemplo, o número 8 pode se transformar em 0, quando o LED central estiver queimado; o dígito 7 pode ser lido como 1, quando o LED superior esquerdo se queimar.

Fig. 4.15. Indicador digital de pressão Tem-se a tendência errada de considerar

qualquer indicador digital mais preciso e exato que o analógico. Como será visto, a precisão é um conceito relacionado com a qualidade dos componentes e construção de um instrumento e a exatidão está relacionada com a calibração. Assim, na prática, é possível se ter indicador analógico mais exato e preciso que um digital. Estudos mostram que, psicologicamente, se cansa menos e comete-se menos erros de leituras quando se trabalha com numerosas indicações digitais.

Visor O visor é usado para medir diretamente a

vazão ou o nível. Os tags são FG e LG respectivamente para vazão e nível.

O visor completo consiste da câmara, vidro, gaxetas, tampas e parafusos.

O vidro é normalmente de borossilicato, que pode agüentar até 230 oC e possui boa resistência mecânica e ao choque termal. O vidro pode também ser de vidro de silício ou quartzo, quando pode operar com temperatura de até 530 oC. A câmara pode ser feita de vários materiais e pode ter revestimentos de materiais compatíveis com fluidos corrosivos. Os parafusos e as tampas são metálicos, de materiais compatíveis com o fluido, temperatura e pressão.

Os visores de vazão oferecem um meio simples e barato de ver o processo e assegurar que o fluido esteja vazando, além de poder notar características do processo, como cor, turbidez ou outra propriedade que possa indicar alterações no processo ou estragos no equipamento. Seu uso é limitado na indústria. É difícil estimar o valor da vazão e cria-se um perigo se o vidro se quebrar. Eles são usados geralmente para indicação local no processo industrial.

O visor de nível mede diretamente o nível de liquido dentro de um tanque. Ele possui uma parede transparente, com uma escala graduada e a leitura quantitativa do nível é feita

Page 99: Metrologia 7a

Instrumentos de Medição

89

pela leitura direta do menisco do liquido na escala. Ele é semelhante ao visor de vazão, quanto às características físicas e materiais de construção.

Registrador O registrador é o instrumento que sente

uma variável de processo e imprime o valor desta variável em um gráfico através de uma pena. Quanto ao local de montagem, registrador pode estar no campo (local) ou na sala de controle (remoto). Quanto ao modo do registro, o registrador pode ser continuo, com 1 a 4 penas, ou multiponto, com o registro descontinuo de 6 ou 12 ou 24 pontos. O formato do gráfico pode ser circular ou em tira. O gráfico de tira pode ser em rolo ou sanfonado. O acionamento do gráfico pode ser mecânico, elétrico e raramente pneumático.

Fig. 4.16. Registrador de painel microprocessado, gráfico

de tira (Yokogawa) O registro pode ser analógico ou digital e

pode ser visualmente indicado ou não. Atualmente, o registrador está sendo substituído, com vantagens, pelo computador digital usado para a aquisição de dados (data logger). O computador digital utiliza suas vantagens inerentes de alta velocidade, de grande capacidade de armazenamento de dados, de possibilidade de mostrar os gráficos em telas de vídeo e de imprimir os dados em formulários contínuos ou em plotadores.

A malha de registro é passiva e aberta. A vazão pode também ser registrada no

local ou remotamente. O registro do gráfico pode ser usado, posteriormente, para o cálculo da totalização da vazão. Esta totalização pode ser feita manualmente e sem uso de outro instrumento ou pode se utilizar o planímetro.

Fig.4. 17. Registro e controle de variáveis Fig. 4.18. Contagem e totalização de variáveis

Integrador-Totalizador O integrador totaliza um sinal e a sua

indicação de saída é um contador. O totalizador integra o sinal analógico, por isso é chamado de integrador. Quando o sinal é em pulsos, o totalizador conta os pulsos e por isso é chamado erradamente de contador. O contador é a saída do totalizador.

O totalizador pode receber sinais analógicos ou digitais. O contador só pode receber pulsos. Funcionalmente, quando o integrador recebe um sinal analógico, ele o converte para sinais de pulsos e conta os pulsos. Quando o integrador recebe diretamente pulsos, ele os escalona e os conta. Pulso escalonado é aquele que já possui um significado quantitativo do volume, ou seja, o contador basta contá-los e o display é o volume correto acumulado.

Em instrumentação eletrônica é possível fazer a contagem de pulsos sem erro, usando circuitos digitais e bits de paridade. Mas isso não significa que a totalização é isenta de erros, pois pode haver erros na conversão do sinal analógico para pulsos. O medidor digital que gera pulsos também pode cometer erros na geração destes pulsos. Por exemplo, uma turbina medidora de vazão que tenha uma palheta do rotor quebrada, vai gerar pulsos com freqüência proporcional à vazão medida com um grande erro. Se o número total de palhetas for quatro e uma estiver quebrada, o erro é de 25% do valor medido.

Medidor analógico

Registro ou

Controle

Medidor digital

Registro ou

Controle

Conversor D/A

Medidor digital

Contador

Medidor analógico

Conversor A/D

Contador

Totalizador

Page 100: Metrologia 7a

Instrumentos de Medição

90

(a) Totalização de sinal analógico

(b) Totalização de pulsos escalonados Fig. 4.19. Sistema de totalização de vazão

4. Desempenho do Instrumento

4.1. Introdução A medição é o processo experimental de

atribuir números para as propriedades dos objetos ou eventos no mundo real, de modo a descreve-los quantitativamente. A medição é uma descrição das propriedades do objeto, não a descrição do objeto. A medição é a comparação de uma quantidade desconhecida com um valor padrão predeterminado adotado. O resultado completo de uma medição inclui:

1. um número que mostra quantas vezes a unidade padrão está contida na quantidade medida e

2. a unidade de engenharia da quantidade, 3. a tolerância da medição, expressa por

limites de erro ou de incerteza. Mede-se uma variável de processo, direta

ou indiretamente. O valor da variável medida deve ser apresentado na unidade de engenharia e não em termos de corrente elétrica, sinal pneumático ou movimento mecânico. O processo que inclui a variável medida possui outras variáveis que podem influir e perturbar a medição. Para se medir uma variável, todas as outras variáveis que

interferem nela devem ser mantidas constantes para não haver erro.

O instrumentista confia na folha de especificação do fabricante onde estão definidas a precisão e as características do instrumento e deve proceder corretamente para obter a medição confessável, seguindo as instruções de operação e entendendo corretamente os conceitos básicos associados.

O elemento sensor primário produz uma saída que é função da variável medida, segundo uma lei matemática conhecida. A saída do elemento sensor pode ser um deslocamento mecânico ou uma variável elétrica, como tensão, corrente, resistência, capacitância. O elemento sensor intrusivo sempre perturba a variável medida, ou extraindo ou adicionando energia. A quantidade medida é sempre modificada pela medição, tornando impossível a medição perfeita e sem erro. O sensor é tanto melhor quanto menos influenciar a variável medida.

Para o instrumento desempenhar sua função de indicação, registro ou controle, é necessário converter o sinal de saída em outro mais manipulável e conveniente, mas preservando a informação contida no sinal original. O elemento de manipulação da variável condiciona o sinal de saída do elemento sensor para que o instrumento desempenhe a sua função, preservando a natureza física da variável medida.

O elemento de apresentação dos dados depende da função do instrumento: indicação pelo conjunto ponteiro escala ou através de dígitos, registro pelo conjunto pena gráfico, armazenamento em sistema digital.

A leitura feita pelo observador no elemento apresentador dos dados possui erros inerentes aos equipamentos e ao método da medição. Toda leitura apresenta erro e possui uma precisão.

A metrologia é a ciência da medição e é considerada monótona e desinteressante por muitos técnicos. Porém, ela é necessária e felizmente existem metrologistas para definir e monitorar os padrões.

4.2. Características do Instrumento As características de desempenho do

instrumento são importantes pois elas constituem a base para a escolha do instrumento mais apropriado para a aplicação especifica. O instrumento possui características estáticas e dinâmicas.

Estático significa entradas e saídas estacionárias e dinâmico quer dizer entradas e saídas não estacionárias. Um sistema é chamado de estático se sua relação

0 1 3 5 0 4 FT

FI

FQ

FE

FT

FE

M (constante K)

0 1 3 5 0 4

Page 101: Metrologia 7a

Instrumentos de Medição

91

entrada/saída é independente da velocidade de variação da entrada. Todos sistemas físicos eventualmente violam esta definição quando a velocidade de variação da entrada aumenta. Assim, o termo estático é usualmente acompanhado por uma limitação que especifica a faixa para a qual o sistema é estático, como a faixa de freqüência estendendo de zero até algum valor limite. Por exemplo, uma mola mecânica opera com variação de entrada lenta e relação força-deslocamento constante. Em grandes variações da entrada, a massa da mola se torna um fator importante e a mola não se comporta mais como um dispositivo estático.

Um sistemas é chamado dinâmico se sua relação entrada-saída depende da taxa de variação da entrada. O sistema dinâmico tem armazenagem de energia e sua descrição requer mais de uma equação diferencial. O tempo de resposta de um sistema dinâmico é caracterizado por sua constante de tempo e freqüência natural. Os sistemas de instrumentação são dinâmicos, mas eles são projetados para ter constantes de tempo menores e freqüências naturais maiores do que as do sistema sendo medido. Por exemplo, em um sistema de controle com realimentação negativa, o tempo de resposta do elemento sensor é projetado e selecionado de modo a ser muito mais rápido que o sistema medido.

O comportamento transitório e dinâmico de um instrumento é mais importante que o estático. Os instrumentos raramente respondem instantaneamente às variações da variável medida, mas exibem um atraso, devido a várias causas, como a inércia da massa, a capacitância termal, elétrica e fluídica, a resistência de transferência de energia. As características dinâmicas do instrumento são: a velocidade de resposta, a confiabilidade, o atraso e o erro dinâmico. Os instrumentos podem ter respostas dinâmicas de ordem zero (potenciômetro com deslocamento), primeira (termômetro com enchimento termal) e segunda (balanço da mola).

As características estáticas são aquelas consideradas quando as condições do processo são constantes. Elas são conseguidas através do processo de calibração do instrumento e incluem a exatidão, rangeabilidade e precisão. A precisão possui os parâmetros constituintes de linearidade, repetitividade, reprodutibilidade e sensitividade.

4.3. Exatidão

Conceito O autor traduz o termo accuracy como

exatidão, embora já tenha sido criado o neologismo de acurácia. Exatidão é o grau de conformidade de um valor indicado para um valor padrão reconhecidamente aceito ou valor ideal. A exatidão medida é expressa pelo desvio máximo observado no teste de um instrumento sob determinadas condições e através de um procedimento especifico. É usualmente medida como uma inexatidão e expressa como exatidão.

Valor Verdadeiro O valor verdadeiro é o valor real atribuído à

quantidade. O valor verdadeiro da quantidade nunca pode ser achado e não é conhecido. O valor atribuído a uma quantidade somente será conhecido com alguma incerteza ou erro. Na prática, o valor verdadeiro é substituído pelo valor verdadeiro convencional, dado por um instrumento de medição padrão disponível.

Por exemplo, se um medidor é considerado capaz de fornecer medições com erro menor que ±1% do valor medido, ele pode ser calibrado com um instrumento com erros menores que ±0,1% do valor medido, na mesma faixa. Neste caso, o segundo instrumento fornece o valor verdadeiro convencional. A coluna do algarismo significativo duvidoso do instrumento calibrado corresponde a um algarismo garantido no padrão de calibração., Algumas normas (p. ex., ANSI/ASQC M1-1987, American National Standard for Calibration Systems) e os laboratórios de calibração (p. ex., NIST) recomendam (mas não exigem) que o instrumento padrão deva ter um erro de 4 a 10 vezes menor que o instrumento a ser calibrado.

O objetivo de toda medição é o de obter o valor verdadeiro da variável medida e o erro é tomado como a diferença entre o valor medido e o valor verdadeiro. A exatidão é a habilidade de um instrumento de medição dar indicações equivalentes ao valor verdadeiro da quantidade medida. A exatidão se relaciona com a calibração do instrumento. Quando o instrumento perde a exatidão e deixa de indicar a média coincidente com o valor verdadeiro, ele precisa ser calibrado

Page 102: Metrologia 7a

Instrumentos de Medição

92

Grande precisão Pequena precisão Pequena exatidão Grande exatidão

Pequena precisão Grande precisão Pequena exatidão Grande exatidão

Fig. 4.20. Precisão e exatidão

4.4. Precisão

Conceito A precisão é um dos assuntos mais

importantes da instrumentação, embora seja mal entendido. Sua importância é grande pelos seguintes motivos:

1. a medição precisa das variáveis de processo é um requisito para um controle eficiente,

2. o termo é pobremente definido e muito mal interpretado. Em inglês, há duas palavras accuracy e precision que são traduzidas indistintamente como precisão para o português.

3. os conceitos de precisão (precision e accuracy), rangeabilidade (rangeability ou turn down), aferição, calibração e manutenção nem sempre são bem definidos,

4. há a tendência de alguns fabricantes, por má fé ou por desconhecimento, em expressar numericamente a precisão de modo a parecer que seus produtos apresentam uma precisão maior do que real ou maior que a dos instrumentos concorrentes.

Precisão (precision) é o grau de concordância mútua e consistente entre várias medições individuais, principalmente relacionada com repetitividade e reprodutibilidade. A precisão é uma medida do grau de liberdade dos erros aleatórios do instrumento. A precisão é a qualidade que caracteriza um instrumento de medição dar indicações equivalentes ao valor verdadeiro da quantidade medida. A precisão está relacionada com a qualidade do instrumento. Quando o instrumento deteriora a sua precisão, alargando a dispersão de suas medidas do mesmo valor, ele necessita de manutenção. A manutenção criteriosa do instrumento, utilizando peças originais e conservando o projeto original não melhora a precisão nominal do instrumento, fornecida pelo fabricante quando novo mas evita que ela se degrade e ultrapasse os limites originais.

Exatidão e Precisão É tentador dizer que se uma medição é

conhecida com precisão, então ela é também conhecida com exatidão. Isto é perigoso e errado. Precisão e exatidão são conceitos diferentes.

A precisão é uma condição necessária para a exatidão, porém, não é suficiente. Pode-se ter um instrumento muito preciso, mas descalibrado, de modo que sua medição não é exata. Mas um instrumento com pequena precisão, mesmo que ele forneça uma medição exata, logo depois de calibrado, com o tempo ele se desvia e não mais fornece medições exatas. Para o instrumento ser sempre exato, é necessário ser preciso e estar calibrado.

Fig. 4.21. Expressão da precisão Por exemplo, um relógio de boa qualidade é

preciso. Para ele estar exato, ele precisa ter sido acertado (calibrado) corretamente. Desde que o relógio preciso esteja exato, ele marcará as horas, agora e no futuro com um pequeno

Page 103: Metrologia 7a

Instrumentos de Medição

93

erro. Seja agora um relógio de má qualidade e impreciso. Logo depois de calibrado, ele marcará a hora com exatidão, porém, com o passar do tempo, a sua imprecisão fará com ele marque o tempo com grandes erros. Um instrumento impreciso é também inexato. Mesmo que ele esteja exato, com o tempo ele se afasta do valor verdadeiro e dará grande erro.

Outro exemplo é o odômetro de um automóvel, que pode ter até seis algarismos significativos para indicar a distância percorrida através da contagem de rotações do eixo. A exatidão de sua indicação depende de como as rotações são contadas e de como as rotações refletem a distância percorrida. O contador pode não ter erros e ser exato porém a distância percorrida depende, dentre outros fatores, do diâmetro e do desgaste dos pneus.

Tolerância Tolerância é o máximo afastamento

permissível de uma medição para o seu valor verdadeiro ou nominal. A tolerância é a faixa total que uma quantidade especifica é permitida variar. Numericamente, tolerância é a diferença algébrica entre o valor máximo e mínimo dos limites de erros permitidos.

Por exemplo, a medição de temperatura com erro de ±1 oC, tem a tolerância de 2 oC. A tolerância da freqüência, cujo erro assimétrico é dado por +2% e -5% é de 7%. Quando um fabricante declara em sua especificação que a resistência é de 100 Ω e com limites de erro de ±0.1 Ω, a tolerância é de 0,2 Ω.

No exemplo, em que o usuário compra um lote de resistores de 100 Ω de um fornecedor com tolerância de 0,4 Ω, haverá um limite de ±0,2 Ω de cada lado de 100 Ω. Quando ele medir a resistência de cada resistor, a 20 oC, ele achará valores diferentes entre si e do valor cotado pelo fabricante de 100.0 Ω. Será obtida uma faixa de valores tais como 99.8 - 99,9 - 100.0 - 100,1 e 100.2 Ω distribuídos aleatoriamente em torno de 100.0. Assim, de conformidade com os limites de erro combinados, ele deve rejeitar todos os resistores com valores menores que 99.8 e maiores que 100.2 Ω.

O usuário do resistor tem duas escolhas: 1. ele pode projetar seu sistema de

medição usando o valor do fabricante de 100.0 Ω e aceitando que todos os resistores tenham desvios tolerados de ±0,2 ohm, e como conseqüência, haverá um pequeno desvio no desempenho ideal projetado. Esta é a prática mais comum.

2. ele pode desenvolver um sistema de medição muito preciso para medir cada

resistência do lote e só usar as resistências com medidas iguais a 100,0 Ω. Isto teoricamente removeria o erro devido a incerteza da resistência mas é demorado e caro. E também continua havendo uma incerteza residual no valor da resistência, devido à precisão limitada da medição.

Este fenômeno de dispersão dos valores em torno de um valor esperado é encontrado em qualquer lote de elementos iguais. Variações significativas são encontradas em lotes de resistores, capacitores, termopares, termistores, strain-gages. Porém, em qualquer caso, para um lote de elementos, pode-se dizer que os valores dos parâmetros estão estatisticamente distribuídos em torno do valor médio.

A variabilidade natural das medições é devida:

1. às diferenças de materiais e procedimentos empregados na fabricado de um produto

2. à execução de uma calibração. A tolerância pode ser melhorada usando-se vários pontos de calibração. Fornecer a tolerância em um ponto é inadequado, pois a tolerância aumenta quando se afasta do ponto de calibração.

3. ao operador que faz a medição 4. às condições ambientais variáveis

4.5. Parâmetros da Precisão Quando um fabricante define a precisão do

instrumento, ele está realmente definindo o erro máximo possível quando o instrumento estiver sendo usado sob condições definidas. Para encontrar este erro máximo, o instrumento é testado contra um padrão e a precisão de cada ponto é calculada teoricamente.

A precisão absoluta pode ser dada apenas pela diferença entre o valor medido e o verdadeiro:

precisão = valor medido - valor verdadeiro A precisão relativa é um parâmetro mais útil

e é expressa em percentagem e definida pela relação:

%100verdadeiro valor

verdadeiro valor - medido valor = precisão ×

O valor medido é o dado pelo instrumento e

o valor verdadeiro é a leitura do instrumento padrão, com precisão muito maior que a do instrumento de medição.

Page 104: Metrologia 7a

Instrumentos de Medição

94

Repetitividade A repetitividade é a habilidade de um

medidor reproduzir as leituras da saída quando o mesmo valor medido é aplicado a ele consecutivamente, sob as mesmas condições de uso (mesma variável, mesmo valor, mesmo método, mesmo instrumento, mesmo local, mesma posição, mesmo observador, mesmo ambiente de contorno) e na mesma direção. A repetitividade é calculada a partir de sucessivas medições da variável, mantidas as mesmas condições. Quanto mais próximos estiverem os valores das medições consecutivas da mesma entrada, maior é a repetitividade do instrumento.

A repetitividade é a proximidade entre várias medições consecutivas da saída para o mesmo valor da entrada, sob as mesmas condições de operação. É usualmente medida como não repetitividade e expressa como repetitividade em % da largura de faixa. A repetitividade não inclui a histerese.

A repetitividade é um parâmetro necessário para a precisão mas não é suficiente. O instrumento preciso possui grande repetitividade, porém, o instrumento com alta repetitividade pode ser inexato, por estar descalibrado.

Em controle de processo e atuação de chaves liga-desliga, a repetitividade é mais importante que a exatidão. Em sistemas de custódia, envolvendo compra e venda de produtos, a repetitividade e a exatidão são igualmente importantes.

Reprodutibilidade A reprodutibilidade é uma expressão do

agrupamento da medição do mesmo valor da mesma variável sob condições diferentes (método diferente, instrumento diferente, local diferente, observação diferente), durante um longo período de tempo.

A perfeita reprodutibilidade significa que o instrumento não apresenta desvio, com o decorrer do tempo, ou seja, a calibração do instrumento não se desvia gradualmente, depois de uma semana, um mês ou até um ano.

Pode-se também entender a reprodutibilidade como a repetitividade durante um longo período de tempo. A reprodutibilidade inclui repetitividade, histerese, banda morta e drift.

Linearidade A linearidade do instrumento é sua

conformidade com a linha reta de calibração. Ela é usualmente medida em não-linearidade e expressa como linearidade.

Quando a medição é não linear aparecem desvios da linha reta de calibração. As formas mais comuns são: desvio de zero, desvio da largura de faixa e desvio intermediário, geralmente provocado pela angularidade ou pela histerese.

Quando a medição é uma linha reta não passando pela origem, o instrumento necessita de ajuste de zero. Em um sistema mecânico, o desvio de zero é usualmente devido ao deslize de um elo no mecanismo. Ele pode ser corrigido pelo reajuste do zero do instrumento. Em um instrumento eletrônico, o desvio de zero é causado por variações no circuito devidas ao envelhecimento dos componentes, mudanças nas condições de contorno, como temperatura, umidade, campos eletromagnéticos.

Quando a medição é uma linha reta, passando pelo zero porém com inclinação diferente da ideal, o instrumento necessita de ajuste de largura de faixa ou de ganho. Um desvio de largura de faixa envolve uma variação gradual na calibração, quando a medição se move do zero para o fim da escala. Pode ser causada, em um sistema mecânico, pela variação na constante da mola de uma das partes do instrumento. Em um instrumento eletrônico, o desvio de largura de faixa pode ser provocado, como no desvio do zero, por uma variação da característica de algum componente.

Quando a medição se afasta da linha reta e os valores da medição aumentando são diferentes dos valores tomados com a medição decrescendo, o instrumento apresenta erro de histerese. Tais erros podem ser provocados por folgas e desgastes de peças ou por erros de angularidade do circuito mecânico do instrumento. O desvio intermediário envolve um componente do instrumento, alterando sua calibração. Isto pode ocorrer quando uma parte mecânica é super forçada ou pela alteração da característica de um componente eletrônico. O desvio no instrumento eletrônico ou pneumático-mecânico pode ser compensado e eliminado pela inspeção periódica e calibração do instrumento.

A vantagem de se ter uma curva linear de calibração é que a leitura do instrumento se baseia somente um fator de conversão. Quando a curva é não linear:

1. usa-se uma escala não-linear, com a função matemática inversa (impossível em indicadores digitais),

2. incorpora-se um circuito linearizador antes do fator de conversão,

3. usa-se uma lógica para avaliar a relação não linear e gravam-se os pontos na memória digital (ROM, PROM) do instrumento, fazendo-se a linearização

Page 105: Metrologia 7a

Instrumentos de Medição

95

por segmentos de reta ou por polinômios.

Fig.4.22. Expressão da linearidade

Sensitividade Sensitividade é a relação da variação do

valor de saída para a variação do valor de entrada que a provoca, após se atingir o estado de regime permanente. É expressa como a relação das unidades das duas quantidades envolvidas. A relação é constante na faixa, se o instrumento for linear. Para um instrumento não-linear, deve-se estabelecer o valor da entrada. O inverso da sensitividade é o fator de deflexão do instrumento.

O termo sensitividade pode ser interpretado como a deflexão do ponteiro do instrumento dividida pela correspondente alteração do valor da variável. Por exemplo, se a parte usável da escala é 10 cm, a sensitividade do voltímetro é 10 cm/200 volts ou 0,05 cm/volt. É obvio que este indicador tem dificuldades para indicar voltagens menores que 0,5 volt ou entre 150 e 150,5 volts. Quando se quer indicar 0,05 volts, um medidor com uma faixa de 1 volt seria a solução. A sensitividade, agora, é 10 cm/volt; um sinal de 0,05 volt produziria uma deflexão na indicação de 0,5 cm.

A sensitividade pode ser também a habilidade de um instrumento responder e detetar a menor variável na medição de entrada. Neste caso, ela é também chamada de resolução ou de discriminação. Não há correlação entre a sensitividade e o erro.

Fig. 4.23. Expressão da sensitividade

Zona Morta O efeito da zona morta aparece quando a

medição cai nas extremidades das escalas. Quando se mede 100 volts, começando de 0 volt, o indicador mostra um pouco menos de 100 volts. Quando se mede 100 volts, partindo de 200 volts, o ponteiro marca um pouco mais de 100 volts. A diferença das indicações obtidas quando se aproxima por baixo e por cima é a zona morta. O erro de zona morta é devido a atritos, campos magnéticos assimétricos e folgas mecânicas. Rigorosamente zona morta é diferente de histerese, porém, a maioria das pessoas consideram zona morta e histerese o mesmo fenômeno.

Na prática, a aplicação repentina de uma grande voltagem pode causar um erro de leitura, pois o ponteiro produz uma ultrapassagem (overshoot), oscila e estabiliza em um valor. Se a última oscilação ocorreu acima do valor, a indicação pode ser maior que o valor verdadeiro; se ocorreu abaixo do valor, a indicação pode ser menor que o valor verdadeiro. O bom projeto do instrumento e o uso de materiais especiais para suportes, magnetos e molas, pode reduzir a zona morta. Um modo efetivo para diminuir o efeito da zona morta é tomar várias medições e fazer a média delas.

Tempo de Resposta A tempo de resposta é o intervalo que o

instrumento requer para responder a um sinal

Calibração ideal

Saí

da

Entrada

Tolerância total

0 25 50 75 100

25

50

75

100 B% f.e.

-A% v.m.

Ponto em que A% do vm = B% f.e.

Instrumento não linear

Entrada qi

Saí

da q

o

Δqo

Δqi

Entrada qi

Saí

da q

o

Sensitividade = Δqo/Δqi

Instrumento linear

Page 106: Metrologia 7a

Instrumentos de Medição

96

tipo degrau aplicado à sua entrada. O tempo de resposta é desprezível quando o sinal varia lentamente. Porém, quando o sinal varia rapidamente e continuamente, o ponteiro fica oscilando e nunca fica em equilíbrio, impedindo a leitura exata da indicação. O tempo de resposta depende da massa do ponteiro, resistência da mola de retorno e da criação e desaparecimento do campo magnético. O olho humano também tem dificuldade de acompanhar variações muito rápidas do ponteiro.

Os artifícios para diminuir o tempo de resposta do indicador incluem a diminuição do ponteiro, uso de materiais mais leves, molas com menores constantes, uso de displays eletrônicos sem ponteiros (digitais).

Confiabilidade Os instrumentos de medição podem falhar,

deixar de operar, operar intermitentemente ou degradar prematuramente seu desempenho quando exposto a condições desfavoráveis de temperatura, pressão, umidade, fungos, frio, maresia, vibração e choque mecânico. Instrumento confiável é estável, autentico e garantido. Esta expectativa de confiabilidade pode parecer subjetiva, porém, a confiabilidade pode ser definida, calculada, testada e verificada.

Confiabilidade é a probabilidade de um instrumento executar sua função prevista, durante um período de tempo especificado e sob condições de operação determinados. A função pretendida identifica o que constitui o não desempenho ou falha do instrumento. O período especificado pode variar de uma operação instantânea (fusível, disco de ruptura) ou operações que duram anos ininterruptos. O desempenho sob condições estabelecidas refere-se às condições de operação e do ambiente. As condições operacionais podem depender do tipo do instrumento mas devem ser completamente identificadas. As condições de operação e do ambiente não podem causar ou contribuir para o aparecimento de falhas.

Medições confiáveis devem ser válidas, precisas, exatas e consistentes, por definição e verificação. Medidas válidas são feitas por procedimento corretos, resultando no valor que se quer medir. Medidas precisas são repetitivas e reprodutivas, com pouca dispersão em torno do valor esperado. Medidas exatas estão próximas do valor verdadeiro ideal. Medidas consistentes são aquelas cujos valores ficam cada vez mais próximos do valor verdadeiro, quando se aumenta o número de medições replicadas.

O metrologista, pessoa que procura fazer medições com a máxima exatidão e precisão,

parece ter uma interpretação filosófica de confiabilidade. Em sua determinação de constantes fundamentais, ele procura um valor verdadeiro mais fisicamente possível. O instrumentista no campo ou no laboratório, tem um enfoque operacional e procura o melhor valor pratico possível. Melhor implica simplesmente que a incerteza para uma dada medição foi reduzida até um valor menor que um número predeterminado. A incerteza é normalmente expressa por uma faixa ou limites de confiabilidade, dentro da qual é altamente provável que os resultados da medição estejam.

A confiabilidade da medição inclui o intervalo de tempo durante o qual o instrumento permanece calibrado. Ela é comumente somada e expressa em MTBF (mean time between failures - tempo médio entre falhas).

O termo falha não significa necessariamente o desligamento completo do instrumento, mas que o instrumento deixou de manter sua especificação de erro. O instrumento que requer calibrações muito freqüentes é pouco confiável, porque apresenta problema estrutural, ou está mal aplicado ou é de má qualidade. Quando a indicação de um instrumento se afasta do valor verdadeiro, sua calibração está variando com o tempo e sua reprodutibilidade piora.

É difícil estimar a confiabilidade de dados experimentais. Mesmo assim, se pode fazer tais estimativas porque dados de confiabilidade desconhecida são inúteis. Resultados que não especialmente exatos podem ser valiosos se os limites de incerteza são conhecidos.

Infelizmente, não há método simples para determinar a confiabilidade dos dados com certeza absoluta. Às vezes, é tão trabalhoso garantir a qualidade dos resultados experimentais, quanto coleta-los. A confiabilidade pode ser avaliada de diferentes modos. Padrões com certeza conhecida são usados para comparações e calibrações. A calibração de instrumentos aumenta a qualidade dos dados. Testes estatísticos são aplicados aos dados. Nenhuma destas opções é perfeita e, no fim, sempre deve-se fazer julgamentos para a exatidão provável dos resultados.

Uma das primeiras questões a levantar antes de fazer a medição é: qual é o máximo erro tolerado no resultado? A resposta a esta questão determina quanto tempo se gastará na análise dos dados. Por exemplo, um aumento de 10 vezes na confiabilidade pode resultar em horas, dias ou semanas de trabalho adicional. Ninguém pode pretender gastar tempo gerando

Page 107: Metrologia 7a

Instrumentos de Medição

97

medições que sejam mais confiáveis que o necessário.

Estabilidade O desempenho de um instrumento de

medição varia com o tempo. Geralmente, a exatidão do instrumento se degrada com o tempo. As especificações fornecidas pelo fabricante se referem a um instrumento novo, recém calibrado e testado nas condições de laboratório, que são muito mais favoráveis que as condições reais de processo. A estabilidade do medidor é sua habilidade de reter suas características de desempenho durante um longo período de tempo. A estabilidade pode ser expressa como taxa de desvio (drift rate), tipicamente em % por ano ou ±unidade por ano.

A estabilidade do instrumento é um parâmetro básico para a determinação dos intervalos de calibração do instrumento.

Facilidade de Manutenção Nenhum instrumento opera todo o tempo

sem falha ou com o desempenho constante. Todo instrumento, por melhor qualidade que tenha, mesmo que não tenha peças moveis, em algum tempo necessita de alguma inspeção e manutenção. Normalmente, todas as plantas possuem programas estabelecidos de manutenção preventiva e preditiva. Mesmo assim, freqüentemente, o instrumento requer manutenção corretiva. O instrumento microprocessado (inteligente) possui a característica de auto-diagnose, quando ele informa ao operador o afastamento do desempenho do desejado.

A facilidade de manutenção de um instrumento pode ser quantitativamente calculada como o tempo médio gasto para seu reparo. A combinação do tempo médio entre falhas (MTBF) e o tempo médio para reparo (MTTR) dá a disponibilidade do instrumento. Instrumento muito disponível é aquele que raramente se danifica (grande tempo médio entre falhas) e quando isso ocorre, seu reparo é rápido (pequeno tempo médio para reparo).

As condições que facilitam a manutenção incluem:

1. acesso fácil, 2. conjuntos modulares substituíveis, 3. pontos de testes estrategicamente

localizados, 4. auto-diagnose dos defeitos, 5. identificação clara das peças na

documentação e no instrumento, 6. padronização e disponibilidade dos

componentes reservas, 7. número limitado de ferramentas e

acessórios de suporte,

8. compatibilidade e intercambiabilidade de instrumentos e peças,

9. facilidade de manuseio, transporte, armazenamento,

10. documentação técnica, marcações e etiquetas completas e claras.

4.6. Especificação da Precisão A precisão industrial de um instrumento

pode ser expressa numericamente de vários modos diferentes:

1. percentagem do fundo de escala da medição,

2. percentagem do limite superior da capacidade do instrumento

3. percentagem da largura de faixa da medição,

4. percentagem do valor real medido, 5. unidade de engenharia da variável. Mesmo que os valores numéricos sejam

iguais para um determinado valor da medição, a classe de precisão do instrumento pode ser diferente ao longo de toda a faixa. Por exemplo, o instrumento A, com precisão de ±1 % do fundo de escala tem desempenho de precisão diferente do instrumento B, com precisão de ±1 % do valor medido, ambos calibrados para medir 0 a 10 L/s. O erro da medição é igual somente para a vazão de 10 L/s, quando o valor medido é igual ao fundo da escala.

Percentagem do Fundo de Escala Os medidores que possuem os erros

devidos ao ajustes de zero e de largura de faixa possuem a precisão expressa em percentagem relativa ao fundo de escala. Os instrumentos com erro dado em percentagem do fundo de escala apresentam um erro absoluto constante (valor da percentagem vezes o fundo da escala) e o erro relativo aumenta quando a medição diminui.

Esta classe de instrumentos aparece principalmente na medição de vazão e um exemplo é o erro da placa de orifício em percentagem do fundo de escala.

Tab.4.1. Erros de instrumento com imprecisão % do F.E. Vazão

L/s Erro absoluto

L/s Erro relativo

% 100 1 1

50 1 2 30 1 3 10 1 10

1 1 100

Page 108: Metrologia 7a

Instrumentos de Medição

98

Por exemplo, na medição da vazão de 0 a 100 L/s, com a precisão de 1% do fundo de escala, o erro absoluto é igual a 1% x 100 = 1 L/s mas o erro relativo aumenta hiperbolicamente (sentido rigoroso e não figurado). Nesta aplicação, para se ter um erro menor que 3%, deve-se medir apenas vazões acima de 30 L/s.

Percentagem do limite superior do instrumento (URL)

Atualmente, por causa do rigor metrológico dos usuários, os fabricantes também expressam a incerteza dos instrumentos em percentagem do limite superior do instrumento (URL - upper range limit ou URV - upper range value). É uma filosofia mais realista, pois expressa a incerteza do instrumento em função de suas características de fabricante e não de suas características de aplicação. A incerteza de uma capsula de transmissor deve ser função de como ela foi construída e não de como ela é calibrada para uso. Como exemplo numérico, se uma cápsula é feita para medir de 0 a 10 000 mm H20, sua imprecisão deve estar associada a esta capacidade. Se a imprecisão for de 0,1% desta faixa, sua incerteza é de 10 mm H20, quer ela seja calibrada para faixa de 0 a 100 ou 0 a 1000 ou 0 a 10 000 mm H20. Obviamente, o erro relativo para a faixa calibrada de 0 a 100 é de 10%, para a faixa de 0 a 1000 é de 1% e somente para a faixa de 0 a 10 000 mm H20 o erro é de 0,1%, o nominal.

Percentagem da largura de faixa Quando a faixa de medição se refere a zero,

as precisões referidas à largura de faixa e ao fundo de escala são idênticas. Quando a faixa de medição é com zero elevado, a largura de faixa é maior que o valor do fundo de escala e quando a faixa de medição é com zero suprimido, a largura de faixa é menor que o valor do fundo de escala.

Numericamente, na medição de 0 a 100 oC, as precisões de ±1% do fundo de escala e ±1% da largura de faixa são ambas iguais a ±1 oC.

Para uma faixa de 20 a 100 oC, o erro de ±1% do fundo de escala é de ±1 oC, porém, o erro de ±1% da largura de faixa é de ±0,8 oC.

Para uma faixa de -20 a 100 oC, o erro de ±1% do fundo de escala ainda é ±1 oC, porém, o erro de ±1% da largura de faixa é de ±1,2 oC.

Em faixas com zero elevado ou zero suprimido não se deve expressar a precisão em percentagem do fundo de escala, mas sim de largura de faixa. Por exemplo, na medição de -100 a 0 oC, o erro em fundo de escala se refere a 100 e não a 0 oC.

Percentagem do Valor Medido Os medidores que possuem somente os

erros devidos ao ajustes de largura de faixa e não possuem erros devidos aos de zero, pois a condição de zero é exatamente definida, possuem a precisão expressa em percentagem do valor medido. Os instrumentos com erro dado em percentagem do valor medido apresentam um erro relativo constante (valor definido pela qualidade do instrumento) e o erro absoluto aumenta quando a medição aumenta.

Por exemplo, seja a medição da vazão de 0 a 100 L/s, com a precisão de 1% do valor medido. O erro relativo da medição vale sempre ±1%. Porém, o erro absoluto depende do valor medido. O erro absoluto aumenta linearmente com o valor da medição feita. Teoricamente, este instrumento teria uma rangeabilidade infinita, porém, na prática, ela é estabelecida como de 10:1.

Tab. 4.2. Erros de instrumento com imprecisão % do V.M. Vazão

L/s Erro absoluto

L/s Erro relativo

% 100 1 1

50 0,5 1 30 0,3 1 10 0,1 1

1 0,01 1

Unidade de Engenharia É possível ter a precisão expressa na forma

do erro absoluto dado em unidades de engenharia. Como o erro absoluto é constante, o erro relativo se comporta como o erro do instrumento com percentagem do fundo de escala. Por exemplo, no termômetro com erro absoluto de ±1 oC, independente da medição, o erro relativo aumenta quando a medição diminuir, exatamente como no instrumento com percentagem do fundo de escala.

4.7. Rangeabilidade Tão importante quanto à precisão e

exatidão do instrumento, é sua rangeabilidade. Em inglês, há duas palavras, rangeability e turndown para expressar aproximadamente a extensão de faixa que um instrumento pode medir dentro de uma determinada especificação. Usamos o neologismo de rangeabilidade para expressar esta propriedade.

Page 109: Metrologia 7a

Instrumentos de Medição

99

Fig. 4.24. Escalas linear, raiz quadrática e logarítmica, com diferentes rangeabilidades

Para expressar a faixa de medição

adequada do instrumento define-se o parâmetro rangeabilidade. Rangeabilidade é a relação da máxima medição sobre a mínima medição, dentro uma determinada precisão. Na prática, a rangeabilidade estabelece a menor medição a ser feita, depois que a máxima é determinada. A rangeabilidade está ligada à relação matemática entre a saída do medidor e a variável medida. Instrumentos lineares possuem maior rangeabilidade que os medidores quadráticos (saída do medidor proporcional ao quadrado da medição).

Na medição de qualquer quantidade se escolhe um instrumento pensando que ele tem o mesmo desempenho em toda a faixa. Na prática, isso não acontece, pois o comportamento do instrumento depende do valor medido. A maioria dos instrumentos tem um desempenho pior na medição de pequenos valores. Sempre há um limite inferior da medição, abaixo do qual é possível se fazer a medição, porém, a precisão se degrada e aumenta muito.

Por exemplo, o instrumento com precisão expressa em percentagem do fundo de escala tem o erro relativo aumentando quando se diminui o valor medido. Para estabelecer a faixa aceitável de medição, associa-se a precisão do instrumento com sua rangeabilidade. Por exemplo, a medição de vazão com placa de orifício, tem precisão de ±3% com rangeabilidade de 3:1. Ou seja, a precisão da medição é igual ao menor que 3% apenas nas medições acima de 30% e até 100% da medição. Pode-se medir valores

abaixo de 30%, porém, o erro é maior que ±,3%. Por exemplo, o erro é de 10% quando se mede 10% do valor máximo; o erro é de 100% quando se mede 1% do valor máximo.

Não se pode medir em toda a faixa por que o instrumento é não linear e tem um comportamento diferenciado no início e no fim da faixa de medição. Geralmente, a dificuldade está na medição de pequenos valores. Um instrumento com pequena rangeabilidade é incapaz de fazer medições de pequenos valores da variável. A sua faixa útil de trabalho é acima de determinado valor; por exemplo, acima de 10% (rangeabilidade 10:1), ou de 33% (3:1).

Em medição, a rangeabilidade se aplica principalmente a medidores de vazão. Sempre que se dimensiona um medidor de vazão e se determina a vazão máxima, automaticamente há um limite de vazão mínima medida, abaixo do qual é possível fazer medição, porém, com precisão degradada.

Em controle de processo, o conceito de rangeabilidade é também muito usado em válvulas de controle. De modo análogo, define-se rangeabilidade da válvula de controle a relação matemática entre a máxima vazão controlada sobre a mínima vazão controlada, com o mesmo desempenho. A rangeabilidade da válvula está associada à sua característica inerente. Na válvula linear, cujo ganho é uniforme em toda a faixa de abertura da válvula, sua rangeabilidade é cerca de 10:1. Ou seja, a mesma dificuldade e precisão que se tem para medir e controlar 100% da vazão, tem se em 10%. A válvula de abertura rápida tem uma ganho muito grande em vazão pequena, logo é instável o controle para vazão baixa. Sua rangeabilidade vale 3:1. A válvula com igual percentagem, cujo ganho em vazão baixa é pequeno, tem rangeabilidade de 100:1.

4.8. Precisão Necessária

Instrumentos de Processo Quando se faz o projeto de uma planta, o

projetista deve estabelecer as precisões dos instrumentos compatíveis com as especificações do produto final. Nem sempre isso é feito com critério técnico, pois essa definição requer conhecimentos de projeto, processo, instrumentação, controle e estatística.

Por insegurança, há uma tendência natural de se estabelecer as classes de precisão maiores possíveis, sem nenhum critério consistente com os resultados finais e até sem saber se o instrumento com tal precisão é comercialmente disponível. Por exemplo,

10 :1

0

10

20

30

40

50

60

70

80

90

100

Linear

3 :1

50

60

70

80

90

100

40 30 20 0

Raiz Quadrática

50

100

40

30

20

90 80 70 60

10

0

30 :1

Logaritmica

Page 110: Metrologia 7a

Instrumentos de Medição

100

pretender que uma indicação de temperatura tenha incerteza de ±0,1 oC, quando o processo requer incerteza de ±1 oC implica, no presente, custo mais elevado do indicador e, no futuro, problemas na operação da instrumentação com recalibrações freqüentes e desnecessárias do instrumento.

Mesmo depois de se especificar o instrumento, não se tem o rigor de verificar se o instrumento comprado e recebido está conforme com a precisão especificada. Às vezes, compra-se o instrumento com precisão pior que a necessária e haverá problemas futuros com a especificação do produto. Também é freqüente comprar instrumento com precisão melhor que a necessária. Neste caso, além do obvio custo mais elevado, haverá problemas técnicos de especificação do produto, pois a tentativa de se obter um controle melhor que o necessário é uma causa de perda de controle. Também não há uma preocupação de se ter instrumentos com precisões iguais em uma malha de medição ou no sistema total de controle. A precisão de uma malha de instrumentos é sempre pior que a precisão do instrumento da malha de pior precisão. Assim, haverá desperdício de dinheiro na compra de instrumentos com precisão além da necessária.

Instrumentos de Teste e Calibração A partir da classe de precisão dos

instrumentos de medição e controle da planta, o pessoal de metrologia e de instrumentação deve montar um laboratório de calibração e aferição com padrões e instrumentos de referência para calibrar os instrumentos de processo. Os instrumentos de aferição e calibração devem ter classe de precisão consistente com a dos instrumentos a serem aferidos e calibrados. Por exemplo, recomenda-se que o instrumento padrão tenha incerteza de 4 vezes a 10 vezes menor que a do instrumento calibrado.

É freqüente a modernização dos instrumentos de medição e controle da planta, por exemplo, passando de instrumentação pneumática para eletrônica analógica, de eletrônica analógica para digital e até de pneumática para eletrônica digital. Nestas trocas de instrumentação, a classe de precisão pode aumentar de fatores de 10 e até de 100. Nestas situações, é obrigatória a modernização e melhoria dos instrumentos de teste e de calibração.

Tudo se resume a uma questão de consistência:

1. O ideal é ter instrumentos de processo com classe de precisão ±n% e instrumentos de teste e calibração com

classe de ±0,n% (10 vezes melhor), pois a incerteza do padrão não passa para o instrumento calibrado.

2. Quando a precisão dos instrumentos de processo tem classe de precisão de ±0,n% e os instrumentos de calibração e teste tem classe de ±n% (10 vezes pior), tem-se a situação ridícula onde o padrão é pior que o instrumento sendo calibrado. A incerteza de ±n% passa para os instrumentos de medição durante a calibração. Não adiantou nada investir muito dinheiro no instrumento de medição e não investir no instrumento de calibração.

3. Quando a precisão dos instrumentos de processo tem classe de precisão de ±n% e os instrumentos de calibração e teste tem classe de ±n% (iguais), a incerteza final das medições feitas com os instrumentos calibrados é de ±2n% (±n% devidos ao instrumento em si mais ±n% devidos ao padrão de calibração.)

Estas comparações feitas entre as classes de precisão dos instrumentos de medição com os instrumentos padrão de trabalho se aplicam exatamente para as outras interfaces da escada de rastreabilidade da calibração, como entre padrões de trabalho e padrões de laboratório, entre padrões de laboratório e padrões externos secundários, sucessivamente até chegar aos padrões nacionais e internacionais.

4.9. Relação entre padrão e instrumento

A calibração correta de um instrumento requer um padrão rastreado. A primeira questão que aparece é: qual deve ser a relação entre as precisões do instrumento e do padrão?

A relação típica varia de 1:1 a 10:1. Uma alta relação (10:1) entre o padrão e o item calibrado (instrumento ou padrão inferior) irá fornecer um alto grau de confiança da medição. Por outro lado, uma baixa (1:1) irá refletir um baixo grau de confiança da medição. O erro de medição potencial pode ser minimizado com a seleção adequada de relações entre o padrão de calibração e o instrumento de medição e teste.

Embora nenhuma norma obrigue, sempre que possível, a seleção das relações de precisão entre o comparador e o item que está sendo calibrado deve ser maior que 2:1 e preferivelmente maior que 4:1.

Uma relação de precisões de 1:1 reflete uma área de 1% de incerteza e portanto todas as medições que caem dentro de uma faixa de

Page 111: Metrologia 7a

Instrumentos de Medição

101

tolerância do item irão ficar na área da incerteza. Não se tem dúvida para rejeitar um valor medido para estes itens onde a medição cai fora das tolerâncias permitidas.

É importante notar que a relação de incertezas de 1:1 pode ou não indicar que os itens calibrados sob estas condições estão de conformidade com as tolerâncias prescritas. Uma relação de incertezas de 1:1 pode não fornecer a confiança necessária para a medição. Além disso, ela pode requerer ações corretivas e aumentar os custos da qualidade. Uma relação de precisões de 4:1 reflete uma área de aceitação de 75% e uma área de incerteza de 25%. Uma relação de precisões de 10:1 reflete uma área de aceitação de 90% e uma área de incerteza de 10%. O uso da relação 10:1 ou maior irá fornecer uma maior confiança na medição e reduzirá o erro potencial da medição.

Quando as medições caem dentro da área de aceitação, a confiança da medição pode ser alcançada. Porém, quando as medições caem dentro da área da incerteza, uma decisão para aceitar ou rejeitar uma medição pode ser questionável.

Equipamento de medição com um alto nível de precisão irá ajudar grandemente o técnico em tomar a decisão correta e aceitar ou rejeitar leituras medidas.

O técnico deve assegurar que as relações de precisões entre o instrumento de medição e teste e a tolerância do produto e entre o padrão e o instrumento são adequadas para o objetivo pretendido. Uma relação maior que 4:1 é aceitável. Porém, uma relação de 10:1 ou maior é recomendada, sempre que possível. Quando as medições caem dentro da área de incerteza, uma decisão deve ser tomada com relação ao impacto nas condições de fora de tolerância.

Os fatores para determinar as relações de precisões são:

R = relação TP = tolerância do produto M&TAT = tolerância da precisão do

equipamento de medição e teste SAT = tolerância da precisão do padrão

secundário PAT = tolerância da precisão do padrão

primário Seleção da relação a. Tolerância do produto do fabricante =

0,005” b. M&TAT = 0,001” c. SAT = 0,000 1” d. PAT = 0,000 004”

Relação entre tolerância do instrumento e tolerância do produto:

"001,0"005,0

TAT&MPTR ==

= 5:1 (nominal) = relação Relação entre padrão secundário da

medição e equipamento de teste e medição:

"0001,0"001,0

SATTAT&MR ==

= 10:1 (nominal) = relação Relação entre padrão primário e padrão

secundário:

"004 000,0"1 000,0

PATSATR ==

= 25:1 (nominal) = relação Tolerância do item = ± 0,001” Discriminação do comparador:

"001,01

"001,0RT

Relação)( Tolerância

===±

Page 112: Metrologia 7a

Instrumentos de Medição

102

Relação 1:1 Fig. 4.26. Exemplo de uma relação 1:1 Comentários:

1. A área de incerteza é igual à precisão do comparador. No caso, a área de incerteza é total e a área de aceitação é zero.

2. Todas as medições caem na área de incerteza e sempre deve se considerar o seu impacto nas tolerâncias permitidas.

3. Por exemplo, uma tolerância permissível para um diâmetro de 1 “ é ±0,001”: a) Medição real: 1,001’ b) Área de incerteza:

0,001” c) Discriminação permitida ±0,001”

4. Deste modo, a medição é considerada estar entre 1,099” e 1,001”

Conclusão: a medição pode ser aceita em 1,099” ou rejeitada em 1,001”.

Relação 4:1 Tolerância do item = ± 0,001” Discriminação do comparador:

25" 000,04

"001,0RT

Relação)( Tolerância

===±

Fig. 4.27. Exemplo de uma relação 4:1 Comentários: 1. A área de incerteza é igual à precisão

do comparador. 2. Quando as medições caem na área de

incerteza, deve-se verificar o seu impacto nas tolerâncias permitidas.

3. Por exemplo, uma tolerância permissível para um diâmetro de 1 “ é ±0,001”:

a) Medição real: 1,001’ b) Área de incerteza:

0,000 25” c) Discriminação permitida ±0,000

25” d) Deste modo, a medição é

considerada estar entre 1,000 75” e 1,00125”

Conclusão: a medição pode ser aceita em 1,000 75” ou rejeitada em 1,00125”.

Linha vertical acima do zero representa o tamanho nominal de uma característica

0,001 0,001

-+

Tolerância

Área de incerteza

0

Comparador

0,00025” 0,0015”

0,001” 0,001”

Área de incerteza Área de aceitação

Page 113: Metrologia 7a

Instrumentos de Medição

103

Relação 10:1 Tolerância do item = ± 0,001” Discriminação do comparador:

1" 000,010

"001,0RT

Relação)( Tolerância

===±

Fig. 4.28. Exemplo de uma relação 10:1 Comentários: 1. A área de incerteza é igual à precisão

do comparador. 2. Quando as medições caem na área de

incerteza, deve-se verificar o seu impacto nas tolerâncias permitidas.

3. Por exemplo, uma tolerância permissível para um diâmetro de 1 “ é ±0,001”: Medição real: 1,001’ Área de incerteza: 0,000 1” Discriminação permitida ±0,000 1” Deste modo, a medição é considerada estar entre 1,000 9” e 1,001 1”

Conclusão: a medição pode ser aceita em 1,000 9 ” ou rejeitada em 1,0011”.

Tab.4.3. Relações de incertezas entre tolerâncias do produto e o instrumento de medição e teste

Relação Discriminação do

comparador Área de incerteza

Área de aceitação

1:1 0,001 000” 100% 0% 2:1 0,001 500” 50% 50% 3:1 0,001 333” 33% 67% 4:1 0,001 250” 25% 75% 5:1 0,001 200” 20% 80% 6:1 0,001 167” 16% 84% 7:1 0,001 143” 14% 86% 8:1 0,001 125” 13% 87% 9:1 0,001 110” 11% 89% 10:1 0,000 100” 10% 90% 50:1 0,000 020” 2% 98% 100:1 0,000 010” 1% 99%

As condições de fora de tolerância do

padrão e do instrumento são colocadas em três categorias gerais:

Relação padrão e /intrumento

Impacto nas exigências da precisão

4:1 a 10:1 ou maior

A adequação do padrão e instrumento será mantida satisfatoriamente. Nenhuma ação é necessária.

2:1 a menor que 4:1

Quando a precisão do instrumento deteriora da condição A para B, investigar os fatores aplicáveis abaixo.

Relação menor que 2:1

Quando a precisão do instrumento deteriora para a condição C, há um grande impacto nas exigências de precisão do padrão e instrumento. Está é uma condição importante que requer ação corretiva imediata. Investigar todos os fatores mostrados abaixo.

0,001”

0,001” 0,001”

0,0018”

Comparador

Área de incerteza

Área de aceitação

0,001”

Page 114: Metrologia 7a

Instrumentos de Medição

104

Fig. 4.29. Curva representativa para uma tolerância de produto de 0,001”

0 10 20 30 40 50 60 70 80 90 100

10:1 9:1 8:1 7:1 6:1 5:1 4:1 3:1 2:1 1:1

Área de incerteza Área de aceitação

Page 115: Metrologia 7a

Instrumentos de Medição

105

4.10. Projeto, Produção e Inspeção A especificação de produto ou instrumento

envolve as áreas de projeto, produção e inspeção. O projetista pensa no produto ideal, o homem da produção quer a máxima produção possível e o inspetor julga se o produto final está dentro das especificações nominais. Cada uma dessas pessoas tem uma visão diferente da tolerância da especificação do produto.

O projetista trata de condições ideais, assumindo instrumentos e equipamentos novos, operadores bem treinados, supervisão competente, instrumentos calibrados, matérias primas dentro das especificações nominais. A partir desta visão, suas tolerâncias são pequenas e às vezes, não atingíveis na prática com o grau de economia do processo industrial. Pode ser até que as condições ideais do processo possam ser conseguidas durante alguma parte do processo mas nunca por longo período de tempo.

O homem de produção sabe, de sua experiência prática, que o operador falha, a matéria prima não é constante, o equipamento não está ajustado corretamente, o instrumento perde a calibração e tudo isso contribui para o produto final se afastar das especificações nominais. Para isso ocorrer menos freqüentemente, ele aceita ou estabelece tolerâncias maiores. Ele faz o melhor que pode, mas nem sempre ele avalia como ele pode melhorar o que ele já faz. Sendo humano e sob pressão para produzir o máximo possível, ele se limita a fazer o que ele acha que é o melhor.

Entre esta briga de foice no escuro ainda há o inspetor do produto. Psicologicamente, o inspetor tenderá a uma posição política de compromisso. Quando o inspetor escuta o operador que trabalha no chão de fabrica, ele será informado que a conformidade com as tolerâncias irá parar a produção e que 0,1% a mais não irá fazer nenhuma diferença prática. Quando o inspetor escuta o projetista que trabalho no ar condicionado do escritório, ele será informado que a produção deverá produzir de conformidade com a especificação nominal.

Não se pode relaxar a inspeção, pois assim ela perderia sua validade. Porém, as especificações das tolerâncias devem ser estabelecidas com critério técnico, resultando em produtos usáveis e economicamente viáveis.

Quando se tem tolerâncias pequenas que são desrespeitadas sem nenhuma conseqüência grave, cria uma cultura nociva de falta de respeito a especificações por parte do pessoal de produção e inspeção. Às vezes, é

importante que as especificações criticas sejam cumpridas. Se o pessoal da inspeção e produção tende a não respeitar as especificações do projeto, porque elas são difíceis de serem satisfeitas e por que ele não entende as razões do rigor, este pessoal igualmente não respeitará as especificações criticas e não críticas.

É muito comum se ouvir é trabalho do projetista estabelecer o que é necessário; é trabalho do inspetor testar e aceitar os procedimentos para descobrir se as especificações foram cumpridas; deixe cada lado fazer seu próprio trabalho. Isto é errado! O projetista deve conhecer o resultado das inspeções e as capacidades da produção e usar estas informações para alterar ou manter as especificações originais. No ambiente competitivo e de qualidade atual deve haver trabalho de equipe. Resumindo:

1. todas as tolerâncias das especificações devem ser cumpridas.

2. tolerância muito rigorosa aumenta o custo final do produto.

3. tolerância pouco rigorosa também aumenta o custo final do produto, por causa de muitos refugos e retrabalho.

4. tolerância muito rigorosa é difícil de ser conseguida; requer pessoal de operação treinado, instrumentos calibrados, equipamentos ajustados, matérias primas constantes e processos de produção mais complexos.

5. as tolerâncias podem ser diferentes; instrumentos críticos requerem tolerâncias mais rigorosas, instrumentos não críticos podem ter tolerâncias menos rigorosas.

6. as tolerâncias devem ser coerentes entre si; instrumentos de mesma malha de medição devem ter tolerâncias de mesma ordem de grandeza.

7. a tolerância final do malha não será melhor que a maior tolerância de algum instrumento, durante todo o tempo.

8. as tolerâncias devem ser estabelecidas de comum acordo e envolvendo o pessoal de projeto, produção e inspeção.

9. deve haver controle estatístico do processo para avaliar as tolerâncias, mantendo-as, aumentando-as ou diminuindo-as em função dos resultados obtidos.

Page 116: Metrologia 7a

Instrumentos de Medição

106

5. Erros da Medição

5.1. Introdução É impossível fazer uma medição sem erro

ou incerteza. Na realidade, o que se procura é manter os erros dentro de limites toleráveis e estimar seus valores com exatidão aceitável. Cada medição é influenciada por muitas incertezas, que se combinam para produzir resultados espalhados. As incertezas da medição nunca podem ser completamente eliminadas, pois o valor verdadeiro para qualquer quantidade é desconhecido. Porém, o valor provável do erro da medição pode ser avaliado. É possível definir os limites dentro dos quais o valor verdadeiro de uma quantidade medida se situa em um dado nível de probabilidade.

O erro é a diferença algébrica entre a indicação e o valor verdadeiro convencional. O valor verdadeiro é o valor da variável medida sem erro, ideal. Erro é a quantidade que deve ser subtraída algebricamente da indicação para dar o valor ideal.

Se A é um valor exato e a o valor aproximado medido, então o erro é o desvio do valor aproximado do exato. Matematicamente,

e = A - a Sob o ponto de vista matemático, o erro

pode ser positivo ou negativo. Um erro positivo denota que a medição é maior que o valor ideal. O valor ideal é obtido subtraindo-se este valor do indicado. Um erro negativo denota que a medição do instrumento é menor que o valor ideal. O valor ideal é obtido somando-se este valor ao indicado. Por exemplo, o comprimento de (9,0 + 0,2 - 0,1) mm significa que o valor verdadeiro de 9,0 mm possui um erro para mais de 0,2 mm e um erro para menos de 0,1 mm. Assim, o comprimento deve estar entre 8,9 e 9,2 mm. Neste caso os erros são assimétricos. Na maioria dos casos os erros são simétricos de modo que o valor medido é dado por

(A ± e) = a.

5.2. Tipos de Erros Os erros da medição e do instrumento

podem ser classificados sob vários critérios, como expressão matemática, resposta no tempo, responsabilidade, causa e previsibilidade. É possível haver grande superposição de erros. Por exemplo, um erro pode ser simultaneamente estático, sistemático, previsível, intrínseco ao instrumento e devido ao ajuste de zero.

Quanto à expressão matemática, os erros podem ser classificados como

1. absolutos 2. relativos Quanto ao tempo, os erros podem ser 1. dinâmicos 2. estáticos Quanto à origem, os erros estáticos podem

ser classificados como 1. grosseiros 2. sistemáticos 3. aleatórios

Fig. 4.30 - Erros sistemático, aleatório e espúrio Os erros sistemáticos podem ser divididos

em 1. intrínsecos ao instrumento 2. influência 3. modificação

Os erros intrínsecos podem ser determinados indeterminados

Por sua vez, os erros do instrumento determinados podem ser:

zero largura de faixa ou ganho angularidade quantização

Os erros indeterminados poder ser devidos a

uso e desgaste atrito inércia

Os erros de influência podem ter origem: mecânica elétrica física química

Exatidão

Precisão

Espúrio

Page 117: Metrologia 7a

Instrumentos de Medição

107

5.3. Erro Absoluto e Relativo

Erro absoluto Erro absoluto é simplesmente o desvio da

medição, tomado na mesma unidade de engenharia da medição. No exemplo de 9,0 ± 0,1 mm, o erro absoluto é de 0,1 mm. O erro absoluto não é uma característica conveniente da medição. Por exemplo, o erro absoluto de 1 mm pode ser muito pequeno ou muito grande, relação ao comprimento medido.

Por exemplo, 1 mm de erro em 100 mm vale 1% 1 mm de erro em 10 mm vale 10% 1 mm de erro em 1 mm vale 100%

Erro relativo A qualidade de uma medição é melhor

caracterizada pelo erro relativo, tomado como

%100aeer ×=

onde er é o erro relativo, e é o erro absoluto a é o valor da grandeza medida O erro relativo é adimensional e geralmente

expresso em percentagem. A precisão entre ±1% e ±10% é geralmente

suficiente para a maioria das aplicações residenciais e até industriais; em aplicações científicas tem-se ±0,01 a ±0,1%.

O erro absoluto pode assumir valores negativos e positivos, diferente do valor absoluto do erro, que assume apenas valores positivos.

5.4. Erro Dinâmico e Estático

Erro dinâmico Erro dinâmico é aquele que depende do

tempo. Quando uma medição altera seu valor significativamente durante a medição, ela pode ter erros dinâmicos.

O erro dinâmico mais comum é devido ao tempo de resposta ou tempo característico do instrumento, quando há atrasos na variável medida. O erro dinâmico pode desaparecer naturalmente com o transcorrer do tempo ou quando as condições de operação se igualarem às condições especificadas para uso.

Por exemplo, quando se faz a medição de temperatura sem esperar que o sensor atinja a temperatura medida, há erro dinâmico que desaparece quando a temperatura do sensor for igual a temperatura do processo que se quer medir. Se a temperatura leva 3 minutos

para atingir o valor final medido, qualquer medição antes deste tempo apresentará erro dinâmico. Se a temperatura estiver subindo, todas as medições antes de 3 minutos serão menores que a medida.

Quando se faz a medição de um instrumento eletrônico, sem esperar que ele se aqueça e se estabilize, tem-se também um erro de medição que desaparecerá quando houver transcorrido o tempo de aquecimento do instrumento.

O instrumento pode apresentar erro de calibração a longo prazo, devido ao envelhecimento dos componentes. Tais erros dinâmicos são chamados também de desvios (drift). Porem, neste caso, os tempos envolvidos são muito longos, como meses ou anos.

O erro dinâmico pode ser eliminado, conhecendo-se os tempos de resposta do instrumento, constante de tempo da variável medida e condições previstas para entrada em regime permanente do instrumento medidor. Esse tipo de erro, que pode ser grosseiro e facilmente evitável, pode ser considerado como um erro do operador.

Uma questão associada com o erro dinâmico é o atraso de bulbos e poços de temperatura e selos de pressão. Teoricamente, um bulbo e um poço de temperatura apenas introduzem atraso na medição da temperatura. Se a temperatura fosse constante, depois do tempo de atraso, a temperatura com o bulbo e o poço seria igual à temperatura sem bulbo e poço. Como há uma variabilidade natural da temperatura constante, na prática a colocação de bulbo e poço introduzem erro de medição. A questão é análoga com a medição de pressão e o selo. Na prática, o selo de pressão introduz um erro de medição. Como regra geral, tudo que é colocado na malha de medição introduz uma parcela do erro final.

Erro Estático Erro estático é aquele que independe do

tempo. Quando uma medição não altera seu valor substancialmente durante a medição, ela está sujeita apenas aos erros estáticos.

Os erros estáticos são de três tipos diferentes:

1. erros grosseiros 2. erros sistemáticos 3. erros aleatórios

Page 118: Metrologia 7a

Instrumentos de Medição

108

5.5. Erro Grosseiro O erro grosseiro é também chamado de

acidental, espúrio, do operador, de confusão, de lapso, freak ou outlier. A medição com um erro grosseiro é aquela que difere muito de todas as outras do conjunto de medições.

Muitas medições requerem julgamentos pessoais. Exemplos incluem a estimativa da posição do ponteiro entre duas divisões da escala, a cor de uma solução no final de uma analise química ou o nível de um liquido em uma coluna liquida. Julgamentos deste tipo estão sujeitos a erros uni direcionais e sistemáticos. Por exemplo, um operador pode ler o ponteiro consistentemente alto; outro pode ser lento em acionar um cronômetro e um terceiro pode ser menos sensível às mudanças de cores. Defeitos físicos são geralmente fontes de erros pessoais determinados.

Uma fonte universal de erro pessoal é o preconceito. A maioria das pessoas, independente de sua honestidade e competência, tem uma tendência natural de estimar as leituras da escala na direção que aumenta a precisão em um conjunto de resultados. Quando se tem uma noção preconcebida do valor verdadeiro da medição, subconsciente mente o operador faz os resultado cair próximo deste valor.

A polarização é outra fonte de erro pessoal que varia consideravelmente de pessoa para pessoa. A polarização mais comum encontrada na estimativa da posição de um ponteiro em uma escala envolve uma preferência para os dígitos 0 e 5. Também prevalente é o preconceito de favorecer pequenos dígitos sobre grandes e números pares sobre os ímpares.

A vantagem dos instrumentos digitais sobre os analógicos é que sua leitura independe de julgamentos, eliminando-se a polarização. Porém, todo indicador digital apresenta erro de quantizacao, devido à sua natureza discreta.

A maioria dos erros pessoais pode ser minimizada pelo cuidado e auto-disciplina. É um bom hábito verificar sistematicamente as leituras do instrumento, os fatores e os cálculos.

A maioria dos erros grosseiros é pessoal e é causada pela falta de atenção, preguiça ou incompetência. Os erros grosseiros podem ser aleatórios mas ocorrem raramente e por isso eles não são considerados como erros indeterminados. Fontes de erros grosseiros incluem: erros aritméticos, transposição de números em dados de registro, leitura de uma escala ao contrário, troca de sinal e uso de uma escala errada. A maioria dos erros grosseiros afeta apenas uma medição. Outros,

como o uso de uma escala errada, afetam todo o conjunto das medições replicadas.

Erros grosseiros podem também ser provocados pela interrupção momentânea da alimentação dos instrumentos.

O erro grosseiro causado pelo operador é devido a enganos humanos, tais como

1. leitura sem cuidado, 2. anotação equivocada, 3. aplicação errada de fator de correção, 4. engano de fator de escala e de

multiplicação, 5. extrapolação ou interpolação

injustificada, 6. arredondamento mal feito e 7. erros de computação. Alguns erros de operador podem ser

sistemáticos e previsíveis, quando provocados por vicio ou procedimento errado do mesmo operador. Maus hábitos podem provocar erros sistemáticos. A solução é colocar mais de uma pessoa para fazer as medições. Por exemplo, o erro de paralaxe da leitura é devido à postura errada do observador frente a escala do instrumento.

É um erro grosseiro confundir números e errar a posição do marcador decimal. É catastrófico ler, por exemplo, 270 graus em vez de 27,0 graus no mapa de vôo de um avião (já houve um acidente de aviação, no norte do Brasil, onde, segundo o laudo da companhia aérea, o comandante cometeu esse erro grosseiro).

Alguns técnicos acham que fazer 10 medições da mesma grandeza, nas mesmas condições, com o mesmo instrumento e lidas pela mesma pessoa é inútil, pois todos os valores vão ser iguais. Elas desconhecem a variabilidade da constante. Ou seja, na natureza até as constantes variam levemente em torno do valor constante. Em tabelas de calibração, é freqüente encontrar números inventados e repetidos, sem que o instrumentista tenha feito realmente as medições. A rotina pode levar o operador a não fazer efetivamente as leituras e a inventá-las, pois o processo está normal e os valores esperados já são conhecidos.

Os erros grosseiros normalmente se referem a uma única medição, que deve ser desprezada, quando identificada. Ele é imprevisível e não adianta ser tratado estatisticamente.

O erro grosseiro ou de operação pode ser evitado através de

1. treinamento, 2. maior atenção, 3. menor cansaço, 4. maior motivação e 5. melhoria nos procedimentos.

Page 119: Metrologia 7a

Instrumentos de Medição

109

5.6. Erro Sistemático Erro sistemático é também chamado de

consistente, fixo, determinável, previsível, avaliável e de polarização (bias). As características do erro sistemático são as seguintes:

1. se mantém constante, em valor absoluto e sinal quando se fazem várias medições do mesmo valor de uma da variável, sob as mesmas condições,

2. varia de acordo com uma lei definida quando as condições variam,

3. é devido aos efeitos quantificáveis que afetam a todas as medições

4. é devido a uma causa constante, 5. é mensurável 6. pode ser eliminado pela calibração.

Os erros sistemáticos podem ser constantes ou dependentes do valor da variável medida. O erro determinado constante independe do valor da quantidade medida. Os erros constantes se tornam mais sérios quando o valor da quantidade medida diminui, pois o erro relativo fica maior. O erro proporcional aumenta ou diminui na proporção do valor da quantidade medida. Uma causa comum de erros proporcionais é a presença de contaminantes na amostra.

Os erros sistemáticos causam a média de um conjunto de medições se afastar do valor verdadeiro aceitável. O erros sistemáticos afetam a exatidão dos resultados. Os erros sistemáticos podem ser devidos

1. aos instrumentos, 2. às condições de modificação e 3. às condições de interferência do

ambiente. Sob o ponto de vista estatístico, a

distribuição dos erros aleatórios é retangular, onde o erro é constante em toda a faixa de medição.

Erro Inerente ao Instrumento Os erros sistemáticos inerentes ao

instrumento podem ser determinados ou indeterminados. Os erros sistemáticos do instrumento determinados são devidos principalmente à calibração. Como estão relacionados à calibração, eles podem se referir aos pontos de zero, largura de faixa e não-linearidades provocadas pela angularidade dos mecanismos.

Os erros do instrumento indeterminados são inerentes aos mecanismos de medição, por causa de sua estrutura mecânica, tais como os atritos dos mancais e rolamentos dos eixos móveis, a tensão irregular de molas, a redução ou aumento da tensão devido ao manuseio incorreto ou da aplicação de pressão

excessiva, desgaste pelo uso, resistência de contato, atritos e folgas.

Os erros sistemáticos do instrumento determinados e devidos à calibração podem se referir a erro de

1. determinação, 2. hipótese 3. histórico 4. zero 5. largura de faixa 6. angularidade 7. quantização. O erro de determinação resulta da

calibração incorreta do instrumento ou do cálculo inadequado com os dados obtidos.

O erro de hipótese aparece quando se espera que a medição siga uma determinada relação característica diferente da real.

O erro histórico são resultantes do uso, do desgaste, do envelhecimento dos materiais, de estragos, de má operação, de atritos, de folgas nos mecanismos e nas peças constituintes do instrumento.

Erro de largura de faixa (span) O erro de largura de faixa (span) ou de

sensitividade do instrumento ocorre quando a curva de resposta tem inclinação diferente da ideal. Em outras palavras, o instrumento está com erro associado ao seu ganho ou sensitividade. O erro de largura de faixa é eliminado através do ajuste correspondente.

Instrumento que possui apenas erro de largura de faixa possui precisão expressa em percentagem do valor medido.

Fig. 4.31 - Erro de largura de faixa (span)

Calibração ideal

Saí

da

Vazão

±0,5% valor medido

0 25 50 75 100

25

50

75

100 100,5%

99,5%

Page 120: Metrologia 7a

Instrumentos de Medição

110

Erro

MENSURAND

Valor verdadeiro

Valor verdadeiro convencional

PADRÃO

Rastreabilidade

Calibração

INSTRUMENTO

Resolução

Repetitividade

Medição

Sistemático

Exatidão

Aleatório

Precisão

Incerteza

Fig. 4.32. Terminologia da medição

Reprodutibilidade

Page 121: Metrologia 7a

Instrumentos de Medição

111

Fig. 4.33. Classificação dos erros do instrumento

Fig. 4.34. Erros de modificação e de influência

Indeterminados

Intrínsecos (irreversíveis)

Influência (reversíveis)

Determinados

Mecânicos

ERROS DO INSTRUMENTO

Tempo Dinâmicos Estáticos

Fonte Sistemáticos Aleatórios

Elétricos

Físicos

Químicos

Modificação (compensados)

Zero

Largura de faixa

Angularidade

Quantificação

Uso

Desgaste

Atrito

Contato

Variáveis Y, Z

Display Sensor de X

Erros de modificação

Sinal

Erros de influência

Condicionamento Sinal

Page 122: Metrologia 7a

Instrumentos de Medição

112

Erro de zero O erro de zero ocorre quando a curva de

calibração não passa pela origem (0, 0). O erro ou desvio de zero pode eliminado ou reduzido pelo ajuste correspondente no potenciômetro ou parafuso de zero. Há instrumentos, como o ohmímetro, que possui ajuste de zero para ser atuado antes de cada medição. Outros instrumentos possuem erro de zero gerado pela variação da temperatura ambiente, como instrumento digital eletrônico.

Instrumento que possui erro de zero possui precisão expressa em percentagem do fundo de escala.

Fig. 4/35 - Erro de zero do instrumento

Erro de linearidade Muitos instrumentos são projetados para

fornecer uma relação linear entre uma entrada estática aplicada e valores indicados da saída. A curva de calibração estática tem a forma geral:

y a a xL = +0 1 (1.7)

onde a curva yL(x) fornece um valor de saída previsível baseado na relação linear entre x e y. Porém, na vida real, o comportamento linear verdadeiro só é conseguido aproximadamente. Como resultado, as especificações do instrumento de medição usualmente fornecem uma expressão para a linearidade esperada da curva de calibração estática para o instrumento. A relação entre yL(x) e o valor medido y(x) é uma medida do comportamento não linear do sistema:

eL(x) = y(x) - yL(x)

onde eL(x) é o erro de linearidade que aparece por causa do comportamento real e não linear do sistema. Para um sistema que é

teoricamente linear, a expressão de uma possível não linearidade é especificada em termos do erro máximo esperado de linearidade:

%( ) [ ( )]e e xrL max

L max

o= ×100 (9)

A não linearidade é o desvio da resposta real de uma reta ideal. Linearidade só existe uma, mas há várias não-linearidades. Em instrumentos mecânicos a balanço de movimentos, tem-se o erro de angularidade, que é um afastamento da linearidade devido aos ângulos retos não estarem retos.

Erro de quantização O erro de quantização se refere a leitura

digital e resulta do fato de tornar discreto o valor de saída da medida. O melhor modo de entender o erro de quantização, inerente a todo instrumento digital que sempre possui uma incerteza de ±n dígitos em sua leitura é o erro da idade de uma pessoa. Assim que uma criança nasce, sua idade é expressa em dias. A idade expressa em dias tem erro em horas. No primeiro ano, a idade passa a ser expressa em meses. A idade expressa em meses em erro de quantização de semanas ou dias. Depois de uns 4 ou 5 anos, a idade da criança passa a ser expressa em anos e o erro de quantização passa a ser de meses. No dia do seu aniversário, a pessoa tem idade exata em anos, meses e dias. Logo depois do aniversário, por exemplo de 40 anos, a pessoa tem 40 anos. Um mês depois do aniversário, a idade continua de 40 anos, mas o erro de quantização é de um mês. Um mês antes de fazer 41 anos, a pessoa ainda tem 40 anos, mas o erro da idade já é de 11 meses. Então, a idade da pessoa sempre tem um erro, pois sua expressão é discreta; aumentando de 1 em 1 ano, passando de 40 para 41 anos.

Os erros sistemáticos intrínsecos do instrumento podem ser eliminados ou diminuídos principalmente através da

1. calibração 2. seleção criteriosa do instrumento 3. aplicação de fatores de correção.

Erro de Influência Os erros sistemáticos de influência ou

interferência são causados pelos efeitos externos ao instrumento, tais como as variações ambientais de temperatura, pressão barométrica e umidade. Os erros de influência são reversíveis e podem ser de natureza mecânica, elétrica, física e química.

Os erros mecânicos são devidos à posição, inclinação, vibração, choque e ação da gravidade.

Calibração ideal

Saí

da

Vazão

±0,5% fundo escala

0 25 50 75 100

25

50

75

100

Page 123: Metrologia 7a

Instrumentos de Medição

113

Os erros elétricos são devidos às variações da voltagem e freqüência da alimentação. As medições elétricas sofrem influência dos ruídos e do acoplamento eletromagnético de campos.

Também o instrumento pneumático pode apresentar erros quando a pressão do ar de alimentação fica fora dos limites especificados. Sujeiras, umidade e óleo no ar de alimentação também podem provocar erros nos instrumentos pneumáticos.

Os efeitos físicos são notados pela dilatação térmica e da alteração das propriedades do material.

Os efeitos químicos influem na composição química, potencial eletroquímico e pH.

O sistema de medição também pode introduzir erro na medição, por causa do modelo, da configuração e da absorção da potência. Por exemplo, na medição da temperatura de um gás de exaustão de uma máquina, 1. a temperatura do gás pode ser não

uniforme, produzindo erro por causa da posição do sensor,

2. a introdução do sensor, mesmo pequeno, pode alterar o perfil da velocidade da vazão,

3. o sensor pode absorver (RTD) ou emitir (termopar) potência, alterando a temperatura do gás.

Os efeitos da influência podem ser de curta duração, observáveis durante uma medição ou são demorados, sendo observados durante todo o conjunto das medições.

Os erros de influência podem ser eliminados ou diminuídos pela colocação de ar condicionado no ambiente, pela selagem de componentes críticos, pelo uso de reguladores de alimentação, pelo uso de blindagens elétricas e aterramento dos circuitos.

Erro de Modificação A diferença entre o erro de interferência e o

de modificação, é que a interferência ocorre no instrumento de medição e o de modificação ocorre na variável sendo medida.

O erro sistemático de modificação é devido à influência de parâmetros externos que estão associados a variável sob medição. Por exemplo, a pressão exercida por uma coluna de liquido em um tanque depende da altura, da densidade do liquido e da aceleração da gravidade. Quando se mede o nível do liquido no tanque através da medição da pressão diferencial, o erro devido a variação da densidade do liquido é um erro de modificação. Outro exemplo, é na medição de temperatura através de termopar. A milivoltagem gerada pelo termopar depende da diferença de temperatura da medição e da junta de

referência. As variações na temperatura da junta de referência provocam erros na medição. Finalmente, a medição da vazão volumétrica de gases é modificada pela pressão estática e temperatura.

O modo de eliminar os erros de modificação é fazer a compensação da medição. Compensar uma medição é medir continuamente a variável que provoca modificação na variável medida e eliminar seu efeito, através de computação matemática. No exemplo da medição de nível com pressão diferencial, mede-se também a densidade variável do liquido e divide-se este sinal pelo sinal correspondente ao da pressão diferencial. Na medição de temperatura por termopar, a temperatura da junta de referência é continuamente medida e o sinal correspondente é somado ao sinal da junta de medição. Na medição de vazão compensada de gases, medem-se os sinais proporcionais à vazão, pressão e temperatura. Os sinais são computados de modo que as modificações da vazão volumétrica provocadas pela pressão e temperatura são canceladas.

Erro Causado Pelo Sensor O elemento sensor do instrumento pode

também causar erros na medição. Por exemplo, a introdução do poço termal causa turbulência na vazão, a colocação de um bulbo de temperatura absorve energia do processo, a colocação da placa de orifício produz uma perda de carga na linha, a colocação de um amperímetro introduz uma resistência parasita no circuito elétrico.

Erro Causado Pelo Instrumento O próprio instrumento de medição pode

introduzir erro na medição. Por exemplo, o amperímetro que é inserido no circuito elétrico para medir a corrente que circula pode modificar a corrente medida. Ou seja, a corrente que circula no circuito sem o amperímetro é diferente da corrente do circuito com o amperímetro. A resistência interna no amperímetro modificou a corrente do circuito. Esse erro é devido ao casamento das impedâncias do circuito e do amperímetro. O amperímetro deve ter uma impedância igual a zero. Amperímetro com resistência interna zero não modifica a corrente medida. Analogamente, a impedância do voltímetro pode alterar a voltagem a ser medida. A impedância ideal do voltímetro é infinita. Voltímetro com impedância infinita não introduz erro na medição da voltagem. Nestas aplicações, diz-se que o instrumento de medição carregou o circuito; o instrumento de medição é uma carga adicional ao circuito.

Page 124: Metrologia 7a

Instrumentos de Medição

114

5.7. Erro Aleatório Os erros aleatórios são devidos à

probabilidade e chance. Eles são imprevisíveis e aparecem por causas irregulares e probabilísticas. Eles são diferentes em medições repetidas do mesmo valor de uma quantidade medida, sob as mesmas condições.

Os erros aleatórios fazem as medições se espalharem mais ou menos e simetricamente em torno do valor médio. Os erros aleatórios afetam a precisão das medições.

Há muitas fontes deste tipo de erro, mas nenhuma delas pode ser positivamente identificada ou medida, porque muitas delas são pequenas e não podem ser detectadas individualmente. O efeito acumulado dos erros indeterminados individuais, porém, faz os dados de um conjunto de medições replicadas flutuarem aleatoriamente em torno da média do conjunto. As causas dos erros aleatórios são devidas a

1. variabilidade natural da constante, 2. erros intrínsecos ao instrumento

dependentes da qualidade dos circuitos e mecanismos.

3. erros irregulares devidos à histerese, banda morta, atrito.

4. Os erros intrínsecos indeterminados relacionados com o desgaste, o uso, o atrito e a resistência de contato.

5. erros de influência que aparecem de uma variação rápida de uma variável de influência.

Repetitividade do instrumentoo A habilidade de um sistema de medição

indicar o mesmo valor sob aplicação repetida e independente da mesma entrada é chamada de repetitividade do instrumento. As expressões da repetitividade são baseadas em testes múltiplos de calibração (replicação) feitos dentro de um dado laboratório em uma unidade particular. A repetitividade se baseia em uma medida estatística chamada de desvio padrão, sx, que é a variação da saída para uma dada entrada fixa.

100rs2)e%(o

xmaxR ×=

A repetitividade do instrumento reflete somente o erro encontrado sob condições controladas de calibração. Ela não inclui os erros adicionais incluídos durante a medição devidos a variação na variável medida ou devidos ao procedimento.

Reprodutibilidade A reprodutibilidade, quando reportada na

especificação de um instrumento, se refere aos

resultados de testes de repetitividade separados. A reprodutibilidade se baseia em múltiplos testes de repetitividade (replicação) feitos em diferentes laboratórios em um único instrumento. A repetitividade se refere a um único ponto; a reprodutibilidade é a repetitividade em todos os pontos da faixa de calibração.

Erro de histerese O erro de histerese se refere à diferença

entre uma medição seqüencial crescente e uma decrescente. O erro de histerese é dado por

eh = ycrescente - ydecrescente A histerese é especificada usualmente para

um sistema de medição em termos do erro máximo de histerese como uma percentagem do fundo de escala da saída:

100r)]x(e[)e%(

o

maxhmaxh ×=

A histerese ocorre quando a saída de um

sistema de medição depende do valor prévio indicado pelo sistema. Tal dependência pode ser provocada por alguma limitação realística do sistema, como atrito e amortecimento viscoso em partes móveis ou carga residual em componentes elétricos. Alguma histerese é normal em algum sistema e afeta a precisão do sistema.

Banda morta O erro de banda morta é aquele provocado

quando se altera a variável medida e a indicação do instrumento se mantém constante. Banda morta é a faixa de variação da entrada que não produz nenhum efeito observável na saída do instrumento. A banda morta é produzida por atrito, backlash ou histerese.

Backlash é máxima distância ou ângulo que qualquer peça de um sistema mecânico pode ser movida em uma direção sem aplicação de força ou movimento apreciável para uma próxima peça em uma seqüência mecânica.

Toda medição possui um erro. Quando são tomados todos os cuidados para eliminar os erros de operação e de calibração, restam os erros aleatórios. Os erros aleatórios não podem ser eliminados, mas estatisticamente conhecidos. O seu tratamento é feito por métodos estatísticos, fazendo-se muitas medições, verificando a distribuição e a freqüência da ocorrência.

Page 125: Metrologia 7a

Instrumentos de Medição

115

Sob o ponto de vista estatístico, a distribuição dos erros aleatórios é normal ou gaussiana, onde a maioria dos erros é de erros pequenos e a minoria de erros é de erros grandes.

Se o objetivo do sistema é ter medições repetitivas e não necessariamente exatas, é importante apenas reduzir o erro aleatório; não se importando muito com o erro de sistemático. Ou seja, há sistemas onde o que importa é a repetitividade e a precisão, sendo suficiente a medição inexata.

Inversamente, se o interesse do sistema é ter o valor exato da medição, pois se quer os valores absolutos, como na compra e venda de produtos, além da repetitividade se requer a exatidão.

5.8. Erro Resultante Final O erro na medição não está somente no

instrumento de indicação (display) mas em todos os componentes da malha de medição, como sensor, elemento condicionador de sinal, linearizador e filtro. Uma questão importante levantada é: qual o erro total do sistema ou da malha?

A precisão da medição pode assim ser definida como a soma dos erros sistemáticos e aleatórios de cada componente do sistema ou da malha. Isto é uma hipótese pessimista, onde se admite que todos os erros são na mesma direção e se acumulam.

Alguém mais otimista poderia estabelecer a precisão final do sistema como igual à pior precisão entre os componentes. Ou seja, considera-se somente a precisão do pior instrumento e desprezam-se as outras precisões melhores. Pode-se ainda determinar a precisão final como a média ponderada das precisões individuais.

Pode-se obter vários resultados válidos da soma de duas incertezas iguais a ±1 e ±1.

1. O pessimista pode obter a incerteza final de +2 ou -2, assumindo que as incertezas se somam no mesmo sentido.

2. O otimista pode achar que as incertezas se anulam e a resultalnte mais provável é igual a 0.

3. O realista intermediário faz a soma conservativa:

1 1 142 2+ = ± ,

que é um valor intermediário entre 0 e ±2. Embora os três resultados sejam muito

diferentes, pode-se explicar e justificar qualquer um deles. Não há uma regra única ou recomendação de como proceder. É uma

questão de bom senso. Quando realmente se quer saber a precisão real do sistema, deve-se usar um padrão que dê diretamente o valor verdadeiro e comparar com a leitura final obtida. Mede-se a incerteza total em vez de calculá-la, seguindo a máxima de metrologia: não imagine quando puder calcular e não calcule quando puder medir.

Para se ter uma idéia qualitativa de como pequenos erros produzem uma incerteza total, imagine uma situação em que quatro erros pequenos se combinam para dar um erro total. Seja cada erro com uma igual probabilidade de ocorrer e que cada um pode fazer o resultado final ser maior ou menor por um valor ±U.

A tabela mostra todas os modos possíveis dos quatro erros serem combinados para dar o desvio indicado da média. Somente uma combinação de erros dá o desvio de +4U, quatro combinação dão um desvio de +2U e seis combinações dão um desvio de 0U. Os erros negativos tem a mesma combinação. Esta relação de 1:4:6:4:1 é uma medida da probabilidade de um desvio de cada valor. Quando se aumenta o número de medições, pode-se esperar uma distribuição de freqüência como a mostrada na figura. A ordenada no gráfico é a freqüência relativa de ocorrência de cinco combinações possíveis.

A tabela mostra a distribuição teórica para dez incertezas de igual probabilidade. Novamente se verifica que a ocorrência mais freqüente é a de desvio zero da média. A ocorrência menos freqüente, de máximo desvio 10U ocorre somente em uma vez em 500 medições.

Cada componente de um sistema ou passo de um procedimento de contribui com algum erro na medição. Visto como um sistema dinâmico, uma medição não pode ser mais confiável que o componente ou passo menos confiável. Um sistema de medição não pode ser mais preciso que o componente menos preciso. O conhecimento das fontes de erros dominantes e desprezíveis de um sistema é muito importante e o conhecimento de sua fonte, aleatória ou sistemática, é que define o tratamento a ser dados às medições. O conhecimento do modo que os erros se propagam são importantes no uso e projeto de instrumentos e procedimentos.

Page 126: Metrologia 7a

Instrumentos de Medição

116

Tab. 1. Combinações Possíveis de 4 Incertezas Iguais Combinações das

incertezas Tamanho

Erros Número

combinações

Freqüência Relativa

+U1+U2+U3+U4 4U 1 1/16=0,0625 -U1+U2+U3+U4 +U1-U2+U3+U4 +U1+U2-U3+U4 +2U 4 4/16=0,250 +U1+U2+U3-U4 -U1-U2+U3+U4 +U1+U2-U3-U4 +U1-U2+U3-U4 -U1+U2-U3+U4 0 6 6/16=0,375 -U1+U2+U3-U4 +U1-U2-U3+U4 +U1-U2-U3-U4 -U1+U2-U3-U4 -U1-U2+U3-U4 -2U 4 4/16=0,250 -U1-U2-U3+U4 -U1-U2-U3-U4 -4U 1 1/46=0,0625

A propagação do erro aleatório pode ser

rastreada matematicamente usando-se uma medida da precisão, como o desvio padrão e desenvolvendo as equações que descrevem a dinâmica do sistema. O erro sistemático pode também ser rastreado através dos dados das calibrações anteriores e dados do catálogo do instrumento.

6. Incerteza na Medição

6.1. Conceito Todas as medições são contaminadas por

erros imperfeitamente conhecidos, de modo que a significância associada com o resultado de uma medição deve considerar esta incerteza

Incerteza é um parâmetro, associado com o resultado de uma medição, que caracteriza a dispersão dos valores que podem razoavelmente ser atribuídos à quantidade medida.

Há problemas associados com esta definição de incerteza de medição, que é tomada do Vocabulário de Metrologia da ISO. O que é a dispersão de se o valor verdadeiro não pode ser conhecido? Ela também implica que incerteza é somente relevante se várias medições são feitas e ela falha - por não mencionar valor verdadeiro para invocar o conceito de rastreabilidade. Uma definição mais prática, mais usada porque ela mais exatamente satisfaz as necessidades da metrologia industrial e não é consistente com a anterior, é a seguinte:

Incerteza é o resultado da avaliação pretendida em caracterizando a faixa dentro da qual o valor verdadeiro de uma quantidade medida é estimado cair, geralmente com uma dada confiança.

Incerteza padrão é o desvio padrão estimado

Incerteza padrão combinada é o resultado da combinação dos componentes da incerteza padrão.

Incerteza estendida é Obtida pela multiplicação da incerteza padrão combinada por um fator de cobertura.

É uma exigência para todos os laboratórios credenciados de calibração que os resultados reportados em um certificado sejam acompanhados de uma declaração descrevendo a incerteza associada com estes resultados. É também exigência para os laboratórios de testes, sob as seguintes circunstâncias:

1. onde isto é requerido pelo cliente 2. onde isto é requerido pela especificação

do teste 3. onde a incerteza é relevante para

validar ou aplicar o resultado, e.g., onde a incerteza afeta a conformidade a uma especificação ou limite.

Os laboratórios credenciados devem ter uma política definida cobrindo a provisão de estimativas das incertezas das calibrações ou testes feitos. O laboratório deve usar procedimentos documentados para a estimativa, tratamento e relatório da incerteza.

Os laboratórios devem consultar seu corpo de credenciamento para qualquer orientação específica que possa estar disponível para a calibração ou teste.

Os meios pelos quais os laboratórios credenciados devem tratar as incertezas da medições são definidos em detalhe na ISO Guide: Guide to the Expression of Uncertainty in Measurement. A terminologia usada aqui é consistente com a do Guide.

6.2. Princípios Gerais O objetivo de uma medição é determinar o

valor de uma quantidade específica sujeita à medida (mesurando). Para laboratórios de calibração, isto pode ser qualquer parâmetro da medição dentro de campos reconhecidos da medição - comprimento, massa, tempo, pressão, corrente elétrica. Quando aplicado a teste, o termo genérico mesurando pode cobrir muitas quantidades diferentes, eg, a resistência de um material, a concentração de uma solução, o nível de emissão de ruído ou radiação eletromagnética, a quantidade de microorganismos. Uma medição começa com uma especificação apropriada da quantidade medida, o método genérico de medição e o procedimento específico detalhado da medição.

Page 127: Metrologia 7a

Instrumentos de Medição

117

Nenhuma medição ou teste é perfeito e as imperfeições fazem aparecer erro de medição no resultado. Como conseqüência, o resultado de uma medição é somente uma aproximação do valor da quantidade medida e é somente completa quando acompanhado por uma expressão da incerteza desta aproximação. Realmente, por causa da incerteza da medição, o valor verdadeiro nunca pode ser conhecido. No limite, por causa de alguns efeitos, ele pode mesmo não existir.

Também deve ser notado que o artigo indefinido um, em vez do artigo definido o, deve ser usado em conjunto com valor verdadeiro por que pode haver mais de um valor consistente com a definição de uma quantidade particular.

A incerteza da medição compreende, em geral, muitos componentes. Alguns podem ser calculados da distribuição estatística dos resultados de uma série de medições e pode ser caracterizados por desvios padrão experimentais. Os outros componentes, que podem também ser caracterizados por desvios padrão, são calculados das distribuições de probabilidade assumidas baseadas na experiência ou em outra informação.

Erros aleatórios aparecem das variações aleatórias das observações. A cada momento que a medição é tomada sob as mesmas condições, efeitos aleatórios de várias fontes afetam o valor medido. Uma série de medições produz um espalhamento em torno de um valor médio. Um número de fontes pode contribuir para a variabilidade cada vez que uma medição é tomada e sua influência pode estar continuamente mudando. Elas não podem ser eliminadas mas a incerteza devido a seus efeitos pode ser reduzida, aumentando o número de observações e aplicando análise estatística.

Erros sistemáticos aparecem de efeitos sistemáticos, ie um efeito no resultado de uma quantiade que não está incluído na especificação da quantiade medida mas que influencia no resultado. Estes erros peramecem constantes quando uma medição é repetida sob as mesmas condições por isso eles não revelados pelas medições repetidas. Seu efeito é introduzir um deslocamento entre o valor da medição e o valor médio determinado experimentalmente. Eles não podem ser eliminados mas podem ser reduzidos, por exemplo, fazendo correções para o tamanho conhecido de um erro devido a um efeito sistematico reconhecido.

O Guide adotou o enfoque de agrupar os componentes da incerteza em duas categorias baseadas em seus métodos de avaliação, Tipo A e Tipo B. Esta classificação de métodos de

avaliação, em vez dos componentes em si, evita certas ambiguidades. Por exemplo, um componente aleatório de incerteza em uma medição pode se tornar um componente sistemático em outra medição que tem como sua entrada o resultado da primeira medição. Assim, a incerteza total cotada em um certificado de calibração de um instrumento incluirá o componente devido aos efeitos aleatórios, mas quando este valor total é subsequentemente usado como a contribuição na avaliação da incerteza em um teste usando este instrumento, a contribuição deve ser tomada como sistemática.

Avaliação do Tipo A é feita pelo cálculo de uma série de leituras repetidas, usando métodos estatísticos.

Avaliação do Tipo B é feita por meios diferentes dos usados no método B. Por exemplo, por julgamento baseado em:

1. Dados de certificados de calibração, que possibilita correções a serem feitas e incertezas do Tipo B a serem atribuídas.

2. Dados de medições anteriores, por exemplo, gráficos históricos podem ser construídos e podem fornecer informação útil acerca das mudanças dinâmicas.

3. Experiência com ou o conhecimento geral do comportamento e propriedades de materiais e equipamentos iguais.

4. Valores aceitos de constantes associadas com materiais e quantidades.

5. Especificações dos fabricantes. 6. Todas as outras informações relevantes. Incertezas individuais são avaliadas pelo

método apropriado e cada uma é expressa como um desvio padrão e é referida a uma incerteza padrão.

As incertezas padrão individuais são combinadas para produzir um valor total de incerteza, conhecido como incerteza padrão combinada.

Uma incerteza expandida é usualmente requerida para satisfazer as necessidades da maioria das aplicações, especialmente onde se envolve segurança. É recomendado fornecer um intervalo maior acerca do resultado de uma medição quando a incerteza padrão com, consequentemente, uma maior probabilidade do que envolve o valor verdadeiro convencional da quantidade medida. Ela é obtida multiplicando-se a incerteza padrão combinada por um fator de cobertura, k. A escolha do fator é baseada no nível de confiança requerido.

Page 128: Metrologia 7a

Instrumentos de Medição

118

6.3. Fontes de Incerteza Há várias fontes possíveis de incerteza.

Como elas dependem da disciplina técnica envolvida, não é possível dar recomendações detalhadas aqui. Porém, os seguintes pontos gerais se aplicam a muitas áreas de calibração e teste: 1. Definição incompleta do teste - a exigência

pode não ser claramente descrita, eg, a temperatura de um teste pode ser dada como temperatura ambiente.

2. Realização imperfeita do procedimento de teste, mesmo quando as condições de teste estão claramente definidas pode não ser possível produzir as condições teóricas, na prática, devido as imperfeições inevitáveis nos materiais ou sistemas usados.

3. Amostragem - a amostra pode não ser totalmente representativa. Em algumas disciplinas, como teste microbiológico, pode ser muito difícil obter uma amostra representativa.

4. Conhecimento inadequado dos efeitos das condições ambientais no processo da medição ou medição imperfeita das condições ambientais.

5. Erro pessoal de polarização na leitura de instrumentos analógicos.

6. Resolução ou limite de discriminação do instrumento ou erros na graduação da escala.

7. Valores atribuídos aos padrões da medição (de trabalho e de referência) e materiais de referência certificada.

8. Alterações nas características ou desempenho de um instrumento de medição desde a sua última calibração.

9. Valores de constantes e outros parâmetros usadas na avaliação dos dados.

10. Aproximações e hipóteses incorporadas no método e procedimento da medição.

11. Variações nas leituras repetidas feitas sob condições parecidas mas não idênticas - tais como efeitos aleatórios podem ser causados, por exemplo, ruído elétrico em instrumentos de medição, flutuações rápidas no ambiente local, eg, temperatura, umidade e pressão do ar, variabilidade no desempenho do operador que faz o teste. Estas fontes não são necessariamente

independentes e, em adição, efeitos sistemáticos não reconhecidos podem existir que não podem ser levados em conta mas contribuem para o erro. É por esta razão que os laboratórios credenciados encorajam - e muitas vezes insistem em - participação em comparações interlaboratoriais, auditorias de medição e cross checking interno de resultados por diferentes meios.

6.4. Estimativa das Incertezas A incerteza total de uma medição é uma

combinação de um número de incertezas componentes. Mesmo uma única leitura do instrumento pode ser influenciada por vários fatores. A consideração cuidadosa de cada medição envolvida na calibração ou teste é necessária para identificar e listar todos os fatores que contribuem para a incerteza total. Este é um passo muito importante e requer um bom entendimento do equipamento de medição, os princípios e práticas da calibração ou teste e a influência do ambiente

O próximo passo é quantificar as incertezas componentes por meios apropriados. Uma quantificação aproximada inicial pode ser valiosa em possibilitar que alguns componentes sejam reconhecidos como desprezíveis e não necessitam de uma avaliação mais rigorosa. Em muitos casos, uma definição prática de desprezível pode ser um componente que não é maior do que um quinto do tamanho do maior componente. Alguns componentes podem ser quantificados pelo cálculo do desvio padrão de um conjunto de medições repetidas (Tipo A) como detalhado no Guide. A quantificação de outros componentes pode requerer o julgamento, usando toda informação relevante na variabilidade possível de cada fator (Tipo B). Para estimativas do Tipo B, o conjunto de informações pode incluir alguns ou todos os fatores listados no parágrafo 2.

Cálculos subsequentes se tornam mais simples se, quando possível, todos os componentes são expressos do mesmo modo, e.g., como percentagem, ou ppm ou mesma unidade de engenharia usada para o resultado reportado.

6.4. Incerteza Padrão A incerteza padrão é definida como um

desvio padrão. O potencial para erros em um estágio posterior da avaliação pode ser minimizado expressando todas as incertezas componentes como um desvio padrão. Isto podoe requer ajuste de alguns valores da incerteza, de modo que os obtidos dos certificados de calibração e outras fontes, que muitas vezes tem sido expressos com um maior nível de confiança, envolvendo múltiplo do desvio padrão (2 ou 3).

Page 129: Metrologia 7a

Instrumentos de Medição

119

6.5. Incerteza Padrão Combinada As incertezas componentes devem ser

combinadas para produzir uma incerteza total usando o procedimento estabelecido no Guide. Em muitos casos, isto reduz a tomar a raiz quadrada da soma dos quadrados das incertezas padrão componentes (método da raiz da soma dos quadrados). Porém, alguns componentes podem ser interdependentes e podem, por exemplo, se cancelarem entre si ou se reforçarem entre si. Em muitos casos, isto pode ser facilmente visto e os componentes interdependentes podem ser somados algebricamente para dar um valor final. Porém, em casos mais complexos, podem-se usar métodos matemáticos mais complexos para tias componentes correlatos, como derivadas parciais

6.6. Incerteza Expandida Em muitos casos, é necessário cotar uma

incerteza expandida e a incerteza padrão combinada portanto necessita ser multiplicada por um fator de cobertura apropriado. Isto deve refletir o nível de confiança requerido e, em termos estritos, será ditado pelos detalhes da distribuição de probabilidade caracterizado pelo resultado da medição e sua incerteza padrão combinada. Porém, as computações extensivas requerida para combinar as distribuições de probabilidade são raramente justificadas pelo tamanho e confiabilidade da informação disponível. Em muitos casos, uma aproximação é aceitável, ou seja, a distribuição da probabilidade pode ser assumida como normal e que um valor de 2 para o fator de cobertura define um intervalo tendo um nível de confiança de aproximadamente 95%, ou, para aplicações mais críticas, que um valor de 3 define um intervalo tendo um nível de confiança de aproximadamente 99%.

Exceções a estes casos precisam ser tratados em uma base individual e devem ser caracterizados por um ou ambos dos seguintes: 1. A ausência de um número significativo de

incertezas componentes tendo distribuições de probabilidade bem comportadas, tais como, normal ou retangular.

2. Inclusão de uma incerteza componente dominante. Isto pode causar a incerteza expandida ser maior do se as contribuições individuais da incerteza fossem somadas aritmeticamente e é claramente uma situação pessimista. Deve também ser notado que se erros de

incertezas do Tipo A em um sistema de medição são comparáveis aos do Tipo B, a incerteza expandida pode ser uma

subestimativa, a não ser que um grande número de leituras repetidas26 MAI 97 tenha sido feito. Nestas circunstâncias, um fator de cobertura kp deve ser obtido de uma distribuição t, baseada nos graus de liberdade efetivo, νef, da incerteza padrão combinada.

Page 130: Metrologia 7a

Instrumentos de Medição

120

Fig. 4.36. Terminologia da Incerteza (VIM 2004)

Page 131: Metrologia 7a

121

5. Confirmação Metrológica Objetivos de Ensino

1. Conceituar calibração e ajuste. Apresentar a cadeia de calibração e rastreabilidade dos diferentes padrões.

2. Conceituar padrões físicos e de receita, primários, secundários e de trabalho. 3. Apresentar os cuidados de monitoração dos instrumentos de medição e teste. 4. Conceituar e diferenciar os vários tipos de normas. Apresentar a ABNT, INMETRO, NIST

e Código de Defesa do Consumidor. 5. Apresentar um caminho típico para obter a certificação da ISO 9000, através de projeto,

implantação e comprovação metrológica.

1. Confirmação Metrológica

1.1. Conceito Comprovação ou confirmação metrológica é

o conjunto de operações necessárias para assegurar que um dado instrumento de medição esteja em condições de conformidade com os requisitos para o uso pretendido (ISO 10 012-1, 1993). O termo confirmação metrológica é um termo criado recentemente e inclui, entre outras atividades,

calibração ajuste manutenção lacração marcação com etiqueta. Na prática, a maioria das pessoas ainda

chama esta atividade de calibração-aferição, quando deveria chamar de calibração-ajuste.

1.2. Necessidade da confirmação A exatidão de qualquer medição é uma

comparação da conformidade desta medição com o padrão. A manutenção de padrões e a calibração de equipamentos de teste é um processo muito caro, mas o desempenho de todo os sistema depende diretamente da exatidão de cada componente do sistema. Embora o equipamento de medição muito exato seja caro, baratear este equipamento significa piorar o seu desempenho e diminuir sua precisão.

Os principais motivos para justificar a calibração de um instrumento são:

1. garantia de que a medição do instrumento é exata,

2. melhorar e manter a qualidade do sistema que depende da medição do instrumento,

3. atendimento de exigências legais ou de contratos comerciais, principalmente quando estão envolvidas a compra e venda de produtos através da medição.

1.3. Terminologia Há algumas confusões clássicas de

terminologia, como exatidão e precisão, calibração, aferição e ajuste. Embora já exista uma portaria do Inmetro, no 29, de 10 MAR 95 (Vocabulário Internacional de Termos Fundamentais e Gerais de Metrologia), ainda há resistência para se usar a terminologia recomendada.

Para alguns, calibrar e aferir possuem o mesmo significado para a operação de verificar um atributo de um sensor ou instrumento e ajustar é a operação que além disso, inclui a atuação no instrumento para adequá-lo a uma determinada condição. Para outros, aferir é a operação de verificar um atributo de um sensor ou instrumento e calibrar é a de fazer ajuste no instrumento. Há ainda quem não admite a aferição, mas apenas calibração para verificar atributo e ajuste para atuar no instrumento. A confusão é previsível, pois o primeiro passo da calibração de um instrumento é a sua aferição.

Para estar de conformidade com a portaria do Inmetro, para o autor e no presente trabalho, calibrar e aferir possuem o mesmo significado. Para o autor calibrar é uma operação de verificação. Durante a calibração, quando necessário, faz-se o ajuste, que é uma atuação no instrumento para

Page 132: Metrologia 7a

Confirmação Metrológica

122

torná-lo exato. O primeiro passo do ajuste, porém é a calibração, para verificar o status de chegada do instrumento. No presente trabalho se evitará usar o termo aferição, usando em seu lugar o termo calibração. Também neste trabalho, calibrar pode incluir ou não a operação de ajuste.

Calibração e ajuste estão associadas com a função dos instrumentos ou dispositivos. Podem ser ajustados instrumentos que tenham pontos de atuação, como transmissor, indicador, registrador, totalizador, válvula de controle. Os ajustes são feitos em potenciômetros ou parafusos disponíveis nos instrumentos. Podem ser calibrados instrumentos e sensores que não possuem dispositivo de ajuste, mas que tem um atributo inerente à sua função. Podem ser calibrados elementos sensores e instrumentos medidores de vazão com fator K.

Para eliminar estas ambigüidades, cada usuário deve definir, por escrito, em seus procedimentos e comunicações os termos e seus significados e como estamos no Brasil, devemos seguir a portaria do Inmetro.

1.4. Calibração e Ajuste

Calibração Calibração é a operação de verificar o valor

de um atributo de um sensor ou de um instrumento. Não é disponível nenhum dispositivo de ajuste e por isso só há verificação.

Como no ajuste, na calibração há os seguintes passos:

1. Aplicação de sinal na entrada do dispositivo, com leitura deste sinal por um padrão rastreado.

2. Leitura do sinal de saída do dispositivo através de outro padrão rastreado.

3. Comparação do sinal lido com o valor teórico, dentro dos limites de incerteza consistentes.

4. Se os valores estiverem dentro dos limites estabelecidos, o dispositivo está adequado ao uso.

5. Se os valores estiverem fora dos limites, o dispositivo é descartado, degradado ou o seu atributo é modificado em todas suas aplicações.

Sensores, como termopar e resistência detectora de temperatura, são calibrados. Calibrar um termopar é verificar se a voltagem gerada por ele corresponde aos valores teóricos, dados por tabelas ou por curvas, quando se gera uma temperatura conhecida e medida por um termômetro padrão. Se os valores estiverem de conformidade com os

teóricos, o termopar pode ser usado; se estiverem diferentes, o termopar deve ser jogado fora e substituído ou degradado de sua função, por exemplo, passando de termopar padrão para termopar de medição de processo..

Calibrar medidores de vazão que possuem o fator K, como a turbina e o medidor magnético, consiste na determinação deste fator K. As calibrações posteriores são necessárias para confirmar o valor deste fator K. Quando o valor se alterar, o novo fator K deve ser considerado na medição, alterando-se escalas ou usando-se fatores de correção.

Ajuste Ajuste é a operação que tem como objetivo

levar o instrumento de medição a uma condição de desempenho e ausência de erros sistemáticos adequada ao seu uso (ISO 10 012-1). De um modo mais específico para o instrumentista, antes do ajuste, faz-se a calibração, que é a comparação do instrumento de exatidão conhecida com outro padrão ou instrumento de ordem superior, para detectar, correlacionar, reportar ou eliminar por ajuste ou reparo, qualquer variação na exatidão do item sob calibração.

A calibração só é confiável e tem significado quando for feita:

1. baseando-se em medições replicadas e usando-se as medições como base de decisão,

2. conforme procedimentos claros e objetivos, escritos pelo executante,

3. em ambiente com temperatura, pressão e umidade conhecido e quando necessário, controlado

4. por pessoas especialistas com habilidade e experiência com o procedimento,

5. estabelecendo-se um período de validade, após o qual ela deve ser refeita.

6. documentando os registros. Calibração pode também consistir na

determinação da relação saída/entrada do sistema de medição. Esta relação pode ser, na prática, a determinação da escala de um indicador ou da saída de um transmissor. Se a resposta saída/entrada de um sistema é uma reta, a calibração de um único ponto é suficiente e portanto, apenas um ponto conhecido do padrão é empregado. Se a resposta do sistema é não-linear, deve ser empregado um conjunto de entradas conhecidas do padrão para a calibração das saídas correspondentes do sistema.

Uma curva de calibração forma a lógica pela qual uma saída indicada do sistema de

Page 133: Metrologia 7a

Confirmação Metrológica

123

medição pode ser interpretada durante uma medição real. Por exemplo, a curva de calibração é a base para fixar a escala do display de saída em um sistema de medição. Além disso, uma curva de calibração pode ser usada como parte para desenvolver uma relação funcional, uma equação conhecida como uma correlação entre a entrada e saída. Uma correlação tem a forma y = f(x) e é determinada aplicando relação física e técnicas de adequação de curva para a curva de calibração. A correlação pode então ser usada em medições posteriores para determinar o valor de entrada desconhecido baseado no valor da saída, o valor indicado pelo sistema de medição.

Calibrar um transmissor eletrônico de pressão consiste em:

1. Aplicar uma pressão conhecida na sua entrada, indicada por um padrão de pressão rastreado.

2. Medir a saída de corrente, indicada por um amperímetro padrão rastreado.

3. Comparar os valores lidos com os estabelecidos pelo procedimento, conforme a imprecisão do instrumento.

4. Caso os valores estejam dentro dos limites estabelecidos, a calibração terminou (alguém diz que isto é uma aferição! Realmente é apenas uma verificação e não houve ajuste, mas para o autor, está se fazendo a calibração do transmissor).

5. Caso os valores estejam fora, ajustam-se os potenciômetros de zero e de span.

6. Paralelamente, faz-se um relatório de não conformidade, quando o transmissor pertencer ao sistema de qualidade.

7. Repetem-se os passos 1 e 2, acima. 8. Caso os valores estejam dentro, a

calibração terminou. 9. Caso os valores estejam fora, o

instrumento está com problema, pois ele não permite ser calibrado, o instrumento é encaminhado para a manutenção.

10. Depois da manutenção o instrumento deve ser novamente calibrado e se necessário, ajustado.

A calibração pode incluir a inspeção visual do instrumento, pesquisa de defeitos funcionais explícitos e óbvios e testes operacionais.

A manutenção não é calibração, mas depois de qualquer manutenção de instrumento, ele deve ser calibrado. É recomendável que a pessoa que faz a manutenção seja diferente da que faz a calibração.

Calibrar um indicador de pressão é quase a mesma coisa. Gera-se o sinal de entrada do indicador, indicando-o com um manômetro padrão e ajusta-se a posição do ponteiro na

escala. Se necessário, ajusta-se a posição do ponteiro. Quando o instrumento não permite a calibração, envia-o para a manutenção.

Fig. 5.1. Ajuste de transmissor (Rosemount) Às vezes, em vez de se aplicar a grandeza

medida pelo instrumento, pode-se simular o sinal de saída do sensor, por conveniência de tempo e custo. Por exemplo, na calibração de um transmissor de temperatura a termopar, em vez de se simular a temperatura, que é uma operação demorada, molhada e cara, simula-se uma milivoltagem na entrada do transmissor, conforme valores listados na literatura técnica (curvas ou tabelas de tensão x temperatura), facilmente obtida de um gerador de tensão.

1.5. Tipos de calibração Toda calibração deve incluir: padrão

rastreado, procedimento escrito, ambiente conhecido, operador treinado, registro documentado e ter um período de validade. Tem-se o preconceito errado de considerar que apenas as calibrações relacionadas com ISO 9000 requerem estas exigências. Toda calibração deve ter estes parâmetros. Um instrumento pode ser calibrado, por questão de

1. custódia, para garantir que a compra e venda de produtos feita através de tubulações com medidores em linha estejam dentro dos limites contratuais,

2. segurança, para assegurar que os instrumentos estejam indicando dentro dos valores seguros do processo,

3. balanço de materiais, para verificar rendimentos de processos, equipamentos, reagentes e catalizadores,

4. ecologia, para garantir que as análises dos efluentes estejam dentro dos valores ecologicamente corretos

Page 134: Metrologia 7a

Confirmação Metrológica

124

5. legal, para satisfazer exigências legais e de normas técnicas,

6. ISO 9000, para atender suas exigências relacionadas com a incerteza, continuidade operacional e qualidade do produto final.

Calibração programada e emergencial Calibração programada é aquela feita para

atender um cronograma já estabelecido, em função da disponibilidade dos instrumentos e dos períodos ótimos, dentro dos quais os instrumentos permanecem dentro de seu desempenho nominal. Geralmente os períodos são estabelecidos em semanas.

A norma ISO 9000 requer um programa de calibração dos instrumentos de medição, teste e inspeção.

Calibração de emergência é aquela feita para atender um chamado extraordinário do pessoal do processo que considera o instrumento descalibrado. Uma das coisas difíceis da vida, em todos os aspectos, é a de relacionar causa e efeito. Geralmente, para o pessoal de processo, quando há um problema com o produto final, a primeira vítima é o instrumento. A maioria dos instrumentos que vão para a calibração está dentro dos limites da calibração e não precisava de calibração.

Calibração estática ou dinâmica O tipo mais comum de calibração é

conhecido como calibração estática. Neste procedimento, um valor conhecido é entrada para o sistema sob calibração e a saída do sistema é registrada. O termo estático se refere ao procedimento da calibração em que os valores das variáveis envolvidos permanecem constantes durante uma medição, isto é, eles não variam com o tempo. Nas calibrações estáticas, somente as magnitudes da entrada conhecida e a saída medida são importantes.

Os pontos medidos de uma curva típica de calibração estática descrevem a relação entrada-saída para um sistema de medição. Uma curva polinomial acomoda os dados que podem ser convenientemente usados para descrever esta relação.

Em um sentido amplo, as variáveis dinâmicas são dependentes do tempo, tanto em magnitude como em freqüência. A relação das magnitudes entrada-saída entre um sinal de entrada dinâmico e um sistema de medição depende da dependência do tempo do sinal de entrada. Quando variáveis dependentes do tempo são medidas, faz-se uma calibração dinâmica além da calibração estática. Uma calibração dinâmica determina a relação entre uma entrada de comportamento dinâmico conhecido e a saída do sistema de medição.

Usualmente tais calibrações envolvem um sinal senoidal ou um degrau como o sinal de entrada conhecido.

Calibração própria ou externa A calibração pode ser feita pelo próprio

usuário, principalmente dos instrumentos de níveis mais baixos, envolvendo os instrumentos de medição, padrões de trabalho e padrões de laboratório,

A calibração também pode ser feita por externamente, preferivelmente por laboratório credenciado da Rede Brasileira de Calibração, pelo fabricante do instrumento ou por laboratório nacional ou internacional que tenha padrões rastreados.

Justifica-se calibrar nas próprias oficinas do usuário:

1. instrumentos comuns, de precisão industrial, que requerem um padrão disponível na própria planta,

2. quando a quantidade de instrumentos é grande, justificando economicamente ter um laboratório para a calibração periódica destes instrumentos.

Justifica-se enviar um instrumento para ser calibrado externamente quando

1. o usuário possui poucos instrumentos 2. quando a calibração requer padrões com

precisão muito elevada e portanto de altíssimo custo

3. para comparação interlaboratorial 4. por exigência legal. Qualquer quer seja o local da calibração, o

responsável final pela calibração é o usuário. Quando a calibração é feita externamente, o usuário deve ter um contrato escrito bem claro, definindo o que o laboratório deve fazer. É muito comum se enviar um instrumento para ser calibrado e ajustado e o laboratório fazer apenas a calibração. É também muito freqüente o laboratório reportar uma calibração de modo incompreensível, sem informar o algoritmo de cálculo da incerteza de calibração, o método empregado, relatórios com preenchimento com números com algarismos significativos sem significado. O único modo de evitar estes inconvenientes é ter um contrato escrito claro e preciso, falando explicitamente sobre esses parâmetros.

Calibração seqüencial ou aleatória Uma calibração seqüencial aplica uma

variação seguida no valor de entrada sobre a faixa desejada de entrada. Isto é realizado aumentando o valor de entrada (crescente) ou diminuindo o valor de entrada (decrescente) sobre toda a faixa de entrada.

Page 135: Metrologia 7a

Confirmação Metrológica

125

A calibração seqüencial é um diagnóstico efetivo para identificar e quantificar o erro de histerese em um sistema de medição.

A calibração aleatória se aplica a seqüências selecionadas aleatoriamente de valores de uma entrada conhecida sobre a faixa de calibração pretendida. Como vantagens da calibração aleatória estática tem-se:

1. tendência a minimizar o impacto da interferência

2. quebra dos efeitos da histerese 3. diminuição dos erros de leitura 4. garantia que cada aplicação do valor de

entrada seja independente da anterior 5. redução do erro sistemático da

calibração 6. simulação mais parecida com a situação

real da medição 7. fornecimento de um diagnóstico para

delinear as características de erros de linearidade, zero, span e repetitividade.

Calibração a seco e molhada A calibração seca ou a seco ou calibração

de artefato (Fluke) é uma aferição que contorna o sensor do instrumento, sem usar o padrão da variável medida pelo instrumento. A calibração a seco geralmente se restringe ao elemento secundário e assume-se que o elemento primário seja descrito com precisão por relações empíricas desenvolvidas de medidores eletrônica ou hidraulicamente semelhantes. A calibração a seco é efetivamente uma calibração do transmissor eletrônico ou pneumático, bypassando o seu elemento sensor.

A calibração seca é feita por comparação usando relação e medição embutidas no próprio instrumento sendo calibrado. O instrumento microprocessado aumenta a sua capacidade de operação e simplifica o processo de calibração, pois ele foi projetado para armazenar e usar fatores de correção em programa para compensar erros de ganho e de zero. Este processo de armazenar constantes baseando-se na comparação com padrões externos foi então adaptado para a calibração a seco. As correções feitas pelo programa interno elimina a necessidade de remover o instrumento para fazer ajustes físicos, simplificando o processo de calibração, que fica facilmente automatizado.

Fig. 5.2. Calibração a seco de transmissor inteligente Por exemplo, a calibração a seco de um

transmissor inteligente de pressão não requer um padrão externo de pressão, mas usa constantes internas armazenadas durante a configuração e caracterização do transmissor.

Em programa de qualidade de ISO 9000, a calibração a seco é tão válida e confiável como a convencional, porém, periodicamente deve ser feita a calibração convencional para verificar o status do sensor do instrumento, que é contornado nas calibrações a seco. Por exemplo, podem-se alternar duas ou três calibrações a seco com uma calibração convencional.

Calibração molhada, por analogia à calibração a seco, é a convencional, usando padrões externos para calibrar o instrumento. No caso da calibração do transmissor de pressão, usa-se o padrão de pressão na entrada do transmissor. Nesta calibração, estão incluídos todos os componentes do instrumento, inclusive o elemento sensor

Fig. 5.3. Conceito de calibração a seco (Fluke)

Page 136: Metrologia 7a

Confirmação Metrológica

126

1.6. Erros de calibração Teoricamente, a calibração em si não

elimina os erros sistemáticos, mas simplesmente reduz estes erros a valores aceitáveis. Os erros de calibração incluem aqueles erros elementares que entram no sistema de medição durante o ato da calibração. Os erros de calibração tendem a entrar através de várias fontes, tais como:

1. os erros sistemáticos do padrão usado na calibração,

2. os erros associados ao ambiente, 3. os erros associados ao operador, 4. erros associados à variável medida, 5. erros associados ao instrumento

calibrado, 6. erros associados ao método de

calibração

Tab. 5.1. Fontes de Erro de Calibração

j Fonte de erro 1 Padrões envolvidos na rastreabilidade 2 Método da calibração 3 Ambiente onde se realiza a calibração 4 Operador que faz a calibração 5 Instrumento que está sendo calibrado 6 Quantidade física envolvida na calibração

Por exemplo, o padrão típico do laboratório

usado na calibração também é aproximado. Assim, pode haver uma diferença entre o valor do padrão usado e o valor do padrão primário que ele representa. Assim, aparece uma incerteza no valor conhecido da entrada em que a calibração é baseada. Além disso, pode haver uma diferença entre o valor fornecido pelo padrão e o valor realmente sentido pelo sistema de medição. Qualquer um destes efeitos será incorporado aos dados de calibração. A Tab. 1 lista erros elementares relacionados com a calibração.

1.7. Calibração da Malha

Justificativa Sempre que possível deve ser feita a

calibração da malha in situ (como regra) e em caso de não conformidade, se faz a calibração por instrumento (como exceção). As vantagens de se fazer a calibração da malha em vez do instrumento isolado incluem:

1. gasta-se menos tempo pois uma malha típica possui três instrumentos,

2. a calibração é mais confiável, pois não se tem o risco de descalibrar o instrumento na sua retirada, transporte e recolocação,

3. a calibração é mais exata, pois todos os efeitos da instalação estão considerados inerentemente,

4. tem-se a medição e não o cálculo da incerteza, coerente com a recomendação metrológica de não imaginar quando puder calcular e não calcular quando puder medir.

A principal desvantagem relacionada com a calibração de malha é a necessidade de se ter padrões que possam ser usados na área industrial. Os padrões devem ter classificação mecânica compatível com a área, se interna ou externa, para ter sua integridade preservada. Se a área for classificada, os padrões elétricos devem ter classificação elétrica compatível, para que sua presença não aumente o risco de explosão ou incêndio do local. Quando não for disponível padrão elétrico com classificação elétrica compatível com a área, deve-se garantir com meios positivos que não há presença de gases flamáveis no local e durante a calibração e para isso deve-se conseguir uma permissão especial (hot permission).

Realização da Calibração da Malha A calibração da malha inclui: 1. Variação da variável medida ou geração

de sinal equivalente ao gerado pelo sensor da variável no local próximo da medição. As malhas são calibradas em pontos definidos nos procedimentos específicos, normalmente nos pontos de 0%, 25%, 50%, 75% e 100% da faixa, com valore crescentes e decrescentes.

2. Leitura e registro dos valores da variável, na sala de controle. Registro dos valores efetivamente lidos e ajustes feitos no Relatório de Calibração. No Relatório de Calibração de cada instrumento já devem estar listados os valores limites aceitáveis, considerando-se a tolerância exigida pelo processo e a incerteza instalada calculada.

3. A malha é considerada conforme e nenhum ajuste é feito, quando os valores lidos estiverem dentro dos limites estabelecidos e anotados nos registros de calibração de cada malha

4. Quando algum valor estiver fora dos limites, a malha é considerada não conforme, a operação deve ser informada através do formulário Relatório de Calibração, os instrumentos são retirados da malha e é feita a calibração de cada instrumento isolado,

Page 137: Metrologia 7a

Confirmação Metrológica

127

na bancada da oficina de instrumentação, conforme procedimentos correspondentes.

Incerteza da calibração da malha No formulário Registro de Calibração deve

ser informada a incerteza do processo de calibração, que é dada pela relação:

∑=

=n

1j

2pjp ii

onde ip é a incerteza do processo de calibração, ipj é a incerteza dos padrões de calibração,

com j variando entre 1 e n.

Calibração do Elemento Sensor Embora o elemento sensor faça parte da

malha de medição, por causa da dificuldade de se simular a variável do processo no campo, geralmente se simula o sinal de saída do sensor, no local da medição para se calibrar a malha e calibra-se o elemento sensor na bancada ou o substitui por um novo rastreado e certificado. A decisão entre calibrar o sensor existente ou substituí-lo por um novo rastreado é uma decisão baseada na relação custo/benefício.

Tipicamente, nos casos de termopares e resistores detectores de temperatura, deve-se fazer a substituição em vez de calibração. No caso de placas de orifício, deve-se fazer inspeção visual e física periódica e apenas substituí-la quando esta inspeção o indicar.

Calibração do Instrumento Isolado As malhas que não puderem ser calibradas

inteiramente como um único instrumento, devem ter seus instrumentos componentes calibrados individualmente. Também, quando a calibração da malha indicar que ela está não conforme, os instrumentos são retirados da malha e levados para calibração individual, conforme procedimentos específicos, que estabelecem o executante, esclarecem a disponibilidade da malha pela operação e a substituição do instrumento. Depois de calibrado o instrumento é armazenado na oficina ou substitui o existente. Quando o instrumento não pegar calibração, ele é submetido à manutenção corretiva e depois calibrado e todos estas operações devem ser anotadas em sua Folha de Cadastro.

1.8. Parâmetros da Calibração Além dos aspectos comerciais envolvidos e,

às vezes, dos aspectos legais, a calibração para ser válida e confiável deve cuidas dos seguintes aspectos:

1. medições replicadas 2. padrões rastreados 3. procedimento escrito 4. ambiente conhecido 5. pessoal treinado 6. registro documentado 7. período de validade administrado

Medições replicadas Toda calibração deve ter várias medições

de cada ponto de calibração. Os pontos de calibração preferidos são: 0%, 25, 50, 75 e 100%, com valores crescentes e decrescentes da variável calibrada. A repetição das medições tem a finalidade de verificar linearidade, repetitividade e histerese do instrumento. Por questão de economia de tempo, é comum se fazer apenas uma medição ascendente e outra descendente, fazendo-se apenas duas medições de cada ponto.

Padrão rastreado Toda calibração requer um padrão para

fornecer os valores verdadeiros convencionais envolvidos. O padrão fornece o valor confiável, fiduciário da variável calibrada.

Padrão rastreado significa que ele foi comparado com um outro padrão superior, que garanta sua confiabilidade. Os padrões de referência devem possuir exatidão maior que a dos instrumentos ou padrões sob calibração. Os padrões de referência de ordem superior devem ser rastreados aos padrões credenciados ou nacionais ou derivados de constantes físicas.

As normas e os laboratórios recomendam números limites entre as exatidões dos instrumentos calibrados e dos padrões. Por exemplo, o NIST recomenda a relação mínima de 4:1; o INMETRO recomenda a relação 3:1 e as normas militares falam de 10:1. Porém, todos estes números são sugestões e não são mandatórios. O risco aceitável associado com a medição varia com cada processo e em uma mesma planta, podem se adotar relações de incertezas diferentes. O estabelecimento da relação se baseia em aspectos econômicos (quanto maior a relação, maior o custo dos padrões da escada metrológica) e técnicos (quanto maior o número, menor a interferência da incerteza do padrão na incerteza do instrumento calibrado). O resultado final desta escolha é um compromisso entre os valores de aceitação e de incerteza.

Page 138: Metrologia 7a

Confirmação Metrológica

128

Os padrões de referência selecionados através das especificações do fabricante devem ser continuamente acompanhados e monitorados para comprovar a estabilidade e o desempenho, através de calibrações sucessivas.

Procedimentos de Calibração Devem ser escritos procedimentos de

calibração de instrumentos para eliminar fontes de erros devidas às diferenças de técnicas, condições do ambiente, escolha dos padrões e dos acessórios e mudança do técnico calibrador. Estes procedimentos não são os manuais de calibração do fabricante. Os procedimentos devem incluir os aspectos técnicos destes manuais de operação, porem devem ser mais abrangentes.

Os procedimentos devem ser usados pelo pessoal envolvido e responsáveis pela calibração. Eles devem ser elaborados com a participação ativa deste pessoal. Os procedimentos devem garantir que:

1. pessoas diferentes obtenham o mesmo resultado quando calibrando instrumentos iguais ao mesmo tempo,

2. a mesma pessoa obtenha o mesmo resultado quando calibrando o mesmo instrumento em épocas e locais diferentes.

Os procedimentos devem ser escritos numa linguagem simples, clara e acessível e o seu conteúdo deve ter, no mínimo,

1. objetivo do procedimento 2. normas de referência e recomendações

do fabricante 3. lista dos padrões requeridos 4. lista dos instrumentos de teste, fontes de

alimentação, pontos de teste e ligações 5. descrição do princípio de medição ou

teoria do método empregado 6. estabelecimento das condições

ambientais do local onde será feita a calibração: temperatura, pressão, umidade, posição, vibração, blindagem a ruídos elétricos e acústicos

7. instruções, passo a passo, da calibração, envolvendo preparação, ajustes, leituras, comparações e correções

8. formulários para a coleta e anotação dos dados, relatórios, tabelas e certificados.

9. estabelecimento da próxima data de calibração.

No Apêndice A há um procedimento típico para a calibração de malha de instrumento de processo.

Condições Ambientais As condições ambientais de calibração do

instrumento devem ser as recomendadas pelos

procedimentos e pelos fabricantes do instrumento e dos padrões envolvidos. A maioria dos instrumentos de processo não requer condições ambientais controladas. Isto é tão verdade, que a tendência atual é fazer a calibração dos instrumentos na área industrial.

As condições envolvidas na calibração não precisam ser controladas mas sempre devem ser conhecidas, por causa de eventuais fatores de correção para os padrões usados.

Quando requerido, a área deve ser limpa, sem vibração mecânica, sem interferências eletrostáticas e eletromagnéticas quando houver envolvimento de equipamentos elétricos e com a temperatura na faixa de 17 a 21 oC e umidade relativa entre 35 e 55%.

Intervalos de calibração Os instrumentos de medição industriais

devem ser calibrados periodicamente por instrumentos de teste de trabalho. Os instrumentos de trabalho devem ser calibrados periodicamente por padrões secundários ou de transferência. Os instrumentos de transferência secundária devem ser calibrados com padrões primários ou de referência.

Os períodos de cada calibração dependem da qualidade do instrumento, das condições ambientais, do treinamento do pessoal envolvido, do tipo da indústria, da idade dos instrumentos, da manutenção corretiva dos instrumentos. Os períodos não são imutáveis e nem fixos. Podem ser alterados em função de:

1. recomendações do fabricante, 2. legislação vigente 3. freqüência de utilização (maior uso

implica em períodos mais curtos). Uso incorreto requer recalibração imediata.

4. severidade e agressão ambiental. Maior agressividade do ambiente implica em menor período de calibração.

5. características de construção do instrumento; instrumento mais frágil requer calibrações mais freqüentes; instrumentos com peças moveis requerem calibrações mais freqüentes.

6. precisão dos instrumentos em relação à tolerância do produto ou da medição; menor tolerância do produto, calibração mais freqüente dos instrumentos envolvidos.

7. posição na escada hierárquica de rastreabilidade: geralmente instrumentos mais próximos da base da pirâmide (menos precisos, de medição e de teste de oficina) requerem calibrações mais freqüentes que os do topo (mais precisos, padrões primários).

8. criticidade e importância da medição efetuada; maior a conseqüência do erro,

Page 139: Metrologia 7a

Confirmação Metrológica

129

implica em menor intervalo de segurança. Medição envolvendo segurança, menor período de calibração; medição envolvendo vidas humanas, obrigação legal de calibração, geralmente com períodos definidos por lei.

Revisão dos intervalos de calibração Um sistema eficiente de calibração deve ter

ferramentas que permitam a revisão dos intervalos de calibração, com critérios baseados em dados obtidos das calibrações anteriores e que seja um compromisso entre se ter menos trabalho de calibração e menos não conformidades por causa de instrumentos descalibrados.

O critério mostrado a seguir se baseia no critério de Schumacher.

1. A cada calibração feita, o instrumento é classificado em relação aos resultados obtidos, conforme a Tab.1:

Tab.5.2. Status do Instrumento

A Avaria

Designa problema que prejudica um ou mais parâmetros ou funções do instrumento.

C Conforme

Designa instrumento encontrado conforme com sua tolerância durante a calibração.

F Fora

Designa instrumento, apesar de apresentar bom funcionamento, encontrado fora das tolerâncias de calibração.

Com base na situação encontrada de

conformidade nos ciclos anteriores, será tomada uma das ações da Tab.5.2:

Para a aplicação do critério, deve ser consultada a Tab. 5.3 e Tab. 5.4.

Tab.5.3. Ações a serem tomadas

E Estender

Indica que o intervalo entre calibrações deve ser estendido.

D Diminuir

Indica que o intervalo entre calibrações deve ser reduzido.

M Máxima

Redução)

Indica redução do ciclo de calibração ao seu intervalo mínimo admissível.

P Permanece

Não se altera o intervalo anteriormente estabelecido

Tab. 5.4. Classificação do Instrumento

Ciclos

Anteriores Condições no Recebimento

A F C CCC P D E FCC P D P ACC P D E CF M M P CA M M P FC P M P FF M M P FA M M P AC P D P AF M M P AA M M P

Tab. 5.5. Determinação do próximo ciclo

Ciclo Atual

Novo Ciclo (Valores Em Semanas)

D E P M 10 9 13 10 * 12 11 15 12 8 14 13 17 14 8 16 14 19 16 10 18 16 21 18 12 20 18 24 20 13 24 22 28 24 15 28 25 32 28 19 32 29 37 32 21 36 32 41 36 24 52 47 52 52 37

* Retirar Instrumento de Uso. Substituir

Registros documentados A documentação registrada garante e

evidencia que os prazos de validade da calibração estão sendo seguidos e que a exatidão dos instrumentos está sendo mantida.

As seguintes informações devem ser facilmente disponíveis:

1. exatidão do instrumento 2. local de uso atual 3. intervalo de calibração, com data de

vencimento 4. procedimento da calibração 5. relatório da última calibração 6. histórico de manutenções e reparos Todas as calibrações para serem válidas

devem ser devidamente certificadas. Os

Page 140: Metrologia 7a

Confirmação Metrológica

130

certificados devem ser arquivados e devem conter, no mínimo,

1. número de série do instrumento correspondente

2. data de calibração 3. laboratório ou padrão rastreado 4. condições físicas nas quais foi feita a

calibração 5. descrição do padrão referido: exatidão,

tipo 6. desvios e fatores corretivos a serem

aplicados, quando as condições da calibração forem diferentes das condições padrão

7. quando feito em laboratório externo (credenciado, nacional), descrição do procedimento e pessoal envolvido

8. garantia que o padrão superior estava confiável e rastreado, através de certificado.

Deve haver um responsável pela organização e atualização do arquivo. O responsável do arquivo deve providenciar:

1. aviso de vencimento de prazo de validade ao responsável do instrumento

2. retirada do instrumento de operação 3. encaminhamento do instrumento para

a calibração interna ou externa 4. recebimento do instrumento calibrado 5. atualização das datas e dos

documentos 6. encaminhamento do instrumento para

o usuário responsável 7. colocação de etiquetas nos

instrumentos, com data da última calibração, nome da pessoa responsável pela calibração, data da próxima calibração e identificação do instrumento.

Sistema de Calibração A implantação adequada de um sistema de

calibração de instrumentos requer as seguintes providências:

1. listar individualmente todos os instrumentos de medição, teste e padrão da empresa, incluindo os do processo, oficina, laboratórios, armários do chefe.

2. estabelecer os padrões e instrumentos mestres necessários para a empresa, baseando-se em fatores econômicos, técnicos, segurança, produção e qualidade do produto.

3. adquirir os padrões necessários e justificados

4. prover local adequado para armazenamento, guarda, preservação e operação dos instrumentos de teste e padrões.

5. se necessário, implantar laboratórios de calibração das variáveis, como temperatura, vazão, pressão, voltagem e resistência elétrica.

6. pesquisar, conhecer e credenciar os laboratórios externos para fins de intercâmbio laboratorial e mútua rastreabilidade. Há laboratórios de usuários que são tecnicamente aceitáveis, mesmo não tendo o credenciamento legal do INMETRO

7. definir a escada de rastreabilidade, separando os instrumentos que podem ser calibrados internamente e os que devem ser enviados para laboratórios externos

8. elaborar cronogramas de tais calibrações, acompanhando as datas de vencimento

9. Elaborar procedimentos para calibrações internas, para envio e recebimento de instrumentos para laboratórios externos

10. implantar arquivo para documentação de todos os históricos

11. treinar o pessoal para as atividades de operação, calibração, armazenamento, manuseio e preservação dos instrumentos e padrões

12. elaborar plano de calibração.

Page 141: Metrologia 7a

Confirmação Metrológica

131

Fig. 5.4.- Diagrama de blocos da calibração de instrumento isolado

Page 142: Metrologia 7a

Confirmação Metrológica

132

Fig. 5.5. - Diagrama de blocos da calibração de malha completa

NÃO

NÃO

CALIBRAÇÃO E AJUSTE DOS INSTRUMENTOS

CALIBRAÇÃO DA MALHA

SIM

SIM

Anotar valores lidos na Ficha Calibração Comparar com limites estabelecidos

Aplicar sinais na entrada da malha Ler sinais da variável no display da

sala de controle

Comparar com tolerância do processo

Calcular incerteza da malha combinada com a do sensor

Desfazer a malha e calibrar cada instrumento individualmente

Malha não conforme para processo. Fazer relatório de não conformidade

FIM

Malha não conforme para calibração mas conforme para o processo

FIM

Arquivar Ficha de Calibração

Etiquetar malha calibrada

Desfazer ligações com padrões

FIM

DENTRO

MENOR

Fazer ligações com padrões conforme Procedimento ou MF

Page 143: Metrologia 7a

Confirmação Metrológica

133

Calibração e manutenção O objetivo da calibração é o de eliminar os

erros sistemáticos que aparecem ou aumentam com o passar do tempo. O valor esperado das várias medições replicadas de um mesmo valor da variável medida tende a se afastar do valor verdadeiro convencional e por isso o instrumento deve ser calibrado, periodicamente.

Também com o passar do tempo o instrumento tende a piorar o seu desempenho e apresentar uma incerteza além dos limites estabelecidos para a incerteza nominal. Neste caso o instrumento requer manutenção. A manutenção deve ser criteriosa e devem ser tomados cuidados para que o desempenho do instrumento não se degrade, usando-se peças originais, ferramentas adequadas, componentes de qualidade industrial. Componentes para a indústria de entretenimento, são mais baratos, mais fáceis de serem encontrados porém são menos confiáveis e com menor vida útil.

A manutenção deve ser feita quando o instrumento estiver visivelmente danificado, não operante ou com desempenho deteriorado. Esta manutenção é chamada de corretiva.

A manutenção pode ser feita de periodicamente, de modo programado. Na data marcada, faz-se a manutenção do instrumento. Nem sempre é possível se programar a data para a manutenção preventiva para qualquer tipo de instrumento. A manutenção preventiva só deve ser feita em instrumentos que tenham causa constante, ou seja, instrumentos que tenham peças que se desgastam de modo previsível. Tipicamente se faz manutenção preventiva em instrumento com peças móveis que se desgastam de modo previsível e estimado.

Depois da manutenção corretiva ou preventiva do instrumento, ele deve ser calibrado e se necessário, ajustado.

Durante a calibração do instrumento pode-se verificar a necessidade de fazer manutenção no instrumento. Tipicamente tem-se:

1. Calibração do instrumento, onde e quando se verifica se o desempenho do instrumento está dentro do esperado.

2. Quando o desempenho estiver fora dos limites predeterminados, fazem-se os ajustes, levando o instrumento para o seu desempenho nominal.

Quando os ajustes no instrumento forem incapazes de levar o instrumento para o seu desempenho nominal, é necessário fazer manutenção, trocando peças e componentes.

3. Padrões Quando um sistema de medição é

calibrado, ele é comparado com algum padrão cujo valor é presumivelmente conhecido. Este padrão pode ser outro instrumento, um objeto tendo um atributo físico bem conhecido a ser usado como comparação, uma solução com propriedade química bem conhecida ou uma técnica conhecida e bem aceita para produzir um valor confiável. Um padrão é a base de todas as medições, em um laboratório ou oficina, em uma indústria, em um país e no mundo.

Uma dimensão (em um sentido mais amplo) define uma variável física que é usada para descrever algum aspecto de um sistema físico. O valor fundamental associado com qualquer dimensão é dada por uma unidade. Uma unidade define uma medida de uma dimensão. Por exemplo, massa, comprimento e tempo descrevem dimensões básicas, com as quais associamos as unidades de kilograma, metro e segundo, respectivamente. Um padrão primário define o valor de uma unidade, fornecendo os meios para descrever a unidade com um único número que pode entendido por todos e em todo lugar. Assim, o padrão primário atribui um único valor a uma unidade por definição. Como tal, ele deve definir a unidade exatamente.

Padrões primários são necessários, por que o valor atribuído a uma é arbitrário. Se um metro é o comprimento do braço do rei ou a distância que a luz percorre em uma fração de segundo depende somente de como alguém quis definí-lo. Para evitar confusão, as unidades são definidos por acordo internacional através do uso de padrões primários. Depois de consensado, o padrão primário forma a definição exata da unidade até que ela seja mudada por algum outro acordo posterior, que tenha vantagens sobre a definição anterior.

As principais características procuradas em um padrão são:

1. disponibilidade global 2. confiabilidade continuada 3. estabilidade temporal e espacial

com mínima sensibilidade às fontes externas do ambiente.

No Brasil, os padrões primários (referência) e secundários (transferência) são mantidos no INMETRO. Periodicamente, o INMETRO também calibra seus próprios padrões de transferência.

3.1. Padrões físicos e de receita A medição requer a definição de unidades,

estabelecimento de padrões de medição,

Page 144: Metrologia 7a

Confirmação Metrológica

134

formação de escalas e comparação de quantidades medidas com as escalas. O padrão fornece a ordem de comparação e a base de toda calibração.

Foram estabelecidos os conceitos de padrão material e de receita.

Padrão físico ou material é baseado em uma entidade física, como uma quantidade de metal ou um comprimento de uma barra de metal. O padrão material é físico e deve ser armazenado em condições de temperatura, pressão e umidade especificas e ser rastreado periodicamente. Exemplo de padrão físico é kilograma físico, padrão de massa no SI, que consiste em um cilindro de platina-irídio, com 39 mm de altura e de diâmetro e que recentemente engordou, passando para 1,000 030 kg. Este padrão está preservado e guardo em Sèvres, França e uma réplica dele está guardada no INMETRO, em Xerém, RJ, Brasil.

Padrão de receita pode ser reproduzido em qualquer laboratório do mundo, baseando-se em fenômenos físicos, procedimentos e métodos específicos. O padrão de receita substitui o padrão físico por causa da maior facilidade de reprodução e de disponibilidade.

Antes de 1960 a unidade de comprimento era um padrão físico, consistindo de uma barra de Pt-Ir guardada em Sèvres.

Em 1960, a unidade de comprimento foi redefinida em termos de padrão de receita óptico, como sendo equivalente a 1 650 763,73 vezes o comprimento de onda da luz laranja-vermelha de uma lâmpada de Kr86.

Em 1983, o metro foi redefinido em função do trajeto percorrido por uma onda eletromagnética plana, no vácuo, durante 1/299 792 458 de segundo.

Atualmente, a única unidade definida como padrão material é o kilograma; todas as outras unidades são fixadas por meio de definições de receitas. O tempo foi a última unidade a ser substituída, tendo sido domínio dos astrônomos por milhares de anos.

3.1. Rastreabilidade O valor conhecido da entrada para um

sistema de medição durante uma calibração é o padrão na qual a calibração se baseia. Obviamente, o padrão primário real pode ser impraticável como padrão para usar em uma calibração normal. Mas, eles servem como referência por causa da exatidão. Não é razoável viajar para Sèvres, na França, para calibrar uma balança analítica de laboratório que necessita de um peso padrão. E chegando na França, o acesso ao kilograma padrão nem seria permitido. Assim, por razões práticas, existe uma hierarquia de padrões secundários

que tentam duplicar os padrões primários. O padrão primário é usado como referência para o padrão secundário, que é usado como transferência. O padrão secundário é uma aproximação razoável do primário e pode ser mais facilmente acessível para calibrações. Porém, deve haver um valor de incerteza razoável no uso de padrões que são réplicas dos padrões primários. No topo da pirâmide de hierarquia, logo abaixo do padrão primário, estão os padrões primários mantidos pelos laboratórios nacionais através do mundo. No Brasil, o INMETRO mantém os padrões primários e secundários e os procedimentos padrão recomendados para a calibração dos sistemas de medição.

Cada nível de hierarquia é derivado por calibração contra o padrão do nível anterior mais alto. Quando se move para baixo da pirâmide, passa-se do padrão primário (referência), para o secundário (transferência), para o local e para o padrão de trabalho, sempre com um grau de precisão menor ou com maior incerteza.

Como a calibração determina a relação entre o valor de entrada e o de saída, a exatidão da calibração depende, em parte, da exatidão do padrão usado. Mas o padrão de trabalho usado contem algum erro e como a exatidão é determinada? No máximo, a exatidão pode somente ser estimada. E a confiança desta estimativa depende da qualidade do padrão e da técnica de calibração usada.

Fig. 5.6. Rastreabilidade dos padrões Rastreabilidade (traceability) é o princípio

em que a incerteza de um padrão é medida contra um padrão superior, permitindo que a incerteza do instrumento seja certificada. Isto é conseguido por uma auditoria para cima, de

Aumento da precisão

P. ex., balança pressão Inmetro Padrão primário

Padrão secundário

Padrão trabalho

Instrumento calibrado

P. ex., bomba peso morto

P. ex., manômetro master

P. ex., manômetro

Page 145: Metrologia 7a

Confirmação Metrológica

135

padrões mais baixos para padrões superiores. Todo sistema válido de padrões deve se conformar com este princípio da rastreabilidade, onde o padrão inferior que é calibrado contra um padrão superior é certificado e sua incerteza é garantida.

Os instrumentos de medição das variáveis do processo requerem calibrações periódicas, referidas a padrões de oficina. Periodicamente, os padrões de oficina também devem ser calibrados e rastreados com outros padrões interlaboratoriais e padrões de referência nacional. Para isso, é fundamental que as quantidades físicas envolvidas tenham os seus padrões definidos e disponíveis.

A exatidão do nível superior deve ser maior que a do nível inferior de um fator variando, por exemplo, de 4 a 10. Quanto menor o fator (4), a exatidão do padrão influi e interfere na exatidão do instrumento calibrado. Quanto maior o fator (10), maior o custo do padrão. Pode-se até fazer a calibração com um instrumento com mesma classe de precisão (cross checking). Geralmente é aplicada no recebimento de instrumentos, após transporte para verificação de violações ou antes da data do vencimento de calibração, apenas para verificar a manutenção da exatidão.

Há vários tipos diferentes de padrões de medição, classificados conforme a função e o tipo de aplicação.

1. internacional e nacional 2. primário e secundário 3. referência e transferência 4. de trabalho e de oficina

Padrão Internacional e nacional Os padrões internacionais são os

dispositivos projetados e construídos para as especificações de um fórum internacional. Eles representam as unidades de medição de várias quantidades físicas na maior precisão possível que é obtida pelo uso de técnicas avançadas de produção e medição. Eles estão guardados em Sèvres e não são disponíveis para o usuário comum e suas necessidades diárias de calibração.

Os padrões internacionais são definidos de modo que possam ser reproduzidos em um grau aceitável de exatidão e quando definidos, o problema seja realizar este padrão. Há um padrão primário para cada unidade. No caso da massa, há um bloco cilíndrico de Pt-Ir guardado em Sèvres, França, de modo que massas semelhantes possam ser comparadas com o protótipo com precisão de 10-8. As outras quantidades são definidas por padrões primários reprodutíveis, ou seja, que podem ser estabelecidas localmente, quando necessário. Na prática, os equipamentos e procedimentos

envolvidos requerem laboratórios altamente especializados. Os padrões internacionais são primários.

Padrão nacional é o de mais alto nível dentro de um país. O INMETRO, no Rio de Janeiro, RJ, é responsável legal pela manutenção dos padrões primários no Brasil. Estes padrões primários não saem do INMETRO. A principal função de um padrão primário é a calibração e verificação dos padrões secundários. No Brasil, o INMETRO credencia os laboratórios que forma a Rede Brasileira de Calibração. Os laboratórios da Rede servem de referência para calibrações secundárias. Por exemplo, o laboratório industrial da Yokogawa (São Paulo, SP) é credenciado pelo INMETRO para calibrar voltagem, corrente e resistência elétrica. O laboratório industrial da Companhia Siderúrgica de Tubarão (Vitória, ES) está credenciado pelo INMETRO para referência de temperatura. O laboratório de Vazão do Instituto de Pesquisas Tecnológicas (São Paulo, SP) está credenciado pelo INMETRO para rastreabilidade de medidores de vazão de líquido, dentro de determinadas faixas. O Apêndice D mostra os laboratórios da Rede Brasileira credenciados até JAN 96.

Padrão primário ou de referência Os padrões primários são dispositivos

mantidos pelas organizações e laboratórios nacionais, em diferentes partes do mundo. Eles representam as quantidades fundamentais e derivadas e são calibrados de modo independente, através de medições absolutas. A principal função dos padrões primários é a de calibrar e certificar periodicamente os padrões secundários. Como os padrões internacionais, os primários não são disponíveis para o usuário final.

O padrão primário é também chamado de padrão de referência. Ele é fixo e reprodutível, não sendo acessível como objeto de calibração industrial e é necessário padrões práticos para as quantidades derivadas.

Os padrões primários são os mais precisos existentes. Eles servem para calibrar os secundários. Todos os padrões primários precisam ter certificados. Os certificados mostram a data de calibração, precisão, condições ambientes onde a precisão é válida e um atestado explicando a rastreabilidade com o Laboratório nacional. O padrão primário é certificado por padrões com maior hierarquia. Quando o sistema é calibrado contra um padrão primário, tem-se uma calibração primária. Após a calibração primária, o equipamento é empregado como um padrão secundário. O resistor e a célula padrão,

Page 146: Metrologia 7a

Confirmação Metrológica

136

comercialmente disponíveis são exemplos de calibração primária.

Há ainda um outro significado para padrão primário, com relacionado com o seu grau de precisão ou posição na pirâmide de rastreabilidade, mas com a sua fabricação. Existem instrumentos e dispositivos que, por construção, possuem uma propriedade conhecida e constante dentro de determinado limite de incerteza. Esta propriedade pode ser usada para calibrar outros instrumentos ou padrões de menor precisão. Sob este enfoque, são considerados padrões primários a placa de orifício, bocal sônico, célula Weston, diodo zener e resistência de precisão.

A placa de orifício é considerada um padrão primário de vazão, pois ela é dimensionada e construída segundo leis físicas aceitas e confirmadas experimentalmente, de modo que ela mede a vazão teórica dentro de determinado limite de incerteza e desde que sejam satisfeitas todas as condições do projeto. A calibração de um sistema de medição com placa de orifício não requer um padrão de vazão, mas somente um padrão de pressão diferencial, que é o sinal gerado pela placa e relacionado com a vazão medida.

Um bocal sônico é também um padrão primário de vazão. Ele é dimensionado e construído segundo uma geometria definida e valores de pressão a montante e jusante teóricos, de modo que, numa determinada situação passa por ele uma vazão conhecida e constante, que pode ser usada para calibrar outros medidores de vazão. Por construção e teoria, ele grampeia um determinado valor de vazão que passa por ele.

Analogamente ao bocal sônico, o diodo zener é um padrão primário de tensão elétrica. Por construção e por causa do efeito Zener e em determinada condição de polarização e temperatura, o diodo zener mantém constante uma tensão nominal através de seus terminais e esta tensão conhecida e constante pode ser usada para calibrar outros medidores de tensão.

Uma célula Weston é um padrão primário de tensão elétrica, pois, por construção e sob determinada corrente, ela fornece uma tensão constante e igual a 1,018 636 V @ 20 oC.

Mesmo que estes padrões não tenham a menor incerteza da pirâmide metrológica de sua quantidade física, eles são chamados também de padrões primários.

Padrão secundário ou de transferência Os padrões secundários são também

instrumentos de alta precisão mas de menor precisão que a dos padrões primários e podem tolerar uma manipulação normal, diferente do extremo cuidado necessário para os padrões primários. Os padrões secundários são usados como um meio para transferir o valor básico dos padrões primários para níveis hierárquicos mais baixos e são calibrados por padrões primários.

O padrão secundário é o padrão de transferência. Ele é o padrão disponível e usado pelos laboratórios de medição e calibração na indústria. Cada laboratório industrial é responsável exclusivo de seus padrões secundários. Cada laboratório industrial deve periodicamente enviar seus padrões secundários para os laboratórios nacionais para serem calibrados contra os primários. Após a calibração, os padrões secundários retornam ao laboratório industrial com um certificado de precisão em termos do padrão primário.

Fig. 5.7. Instrumento padrão de oficina (HP)

Padrão de Oficina Os padrões de oficina são dispositivos de

alta precisão e comercialmente disponíveis, usados como padrões dos laboratórios industriais. Eles não são usados para o trabalho diário de medições, mas servem como referência de calibração para os instrumentos de uso geral e diário. Os padrões de oficina devem ser mantidos em condições especificas de temperatura e umidade. A calibração com os padrões de oficina é chamada de calibração secundária. Usa-se um dispositivo de calibração secundária para a calibração de um equipamento de pior precisão. A calibração secundária é a mais usada na instrumentação. Por exemplo, a célula padrão pode ser usada para calibrar um voltímetro ou amperímetro usado como padrão de trabalho. O voltímetro padrão serve para calibrar um voltímetro de menor precisão, que é usado para fazer as medições rotineiras do trabalho.

Page 147: Metrologia 7a

Confirmação Metrológica

137

Fig. 5.8. Instrumento de medição (Foxboro)

Padrão de trabalho Os padrões de trabalho são dispositivos de

menor precisão e comercialmente disponíveis, usados como padrões para calibrar os instrumento de medição do processo e dos laboratórios industriais. Eles são usados para o trabalho diário de medições. Geralmente são portáteis e de uso coletivo e por isso sua precisão se degrada rapidamente e requerem calibrações freqüentes. Atualmente, com a tendência de se calibrar a malha de processo in situ, os fabricantes de instrumento desenvolveram padrões de trabalho robustos e precisos para calibração dos instrumentos da área industrial.

Deve-se tomar cuidados especiais com o uso dos instrumentos padrão elétricos portáteis em local industrial, observando e cumprindo as exigências de classificação mecânica, elétrica e de temperatura, para não danificar o instrumento e principalmente, não explodir a área.

Fig. 5.9. Instrumentos padrão de trabalho (HP)

Materiais de Referência Certificada Em laboratório químico e físico, é comum se

ter os Materiais de Referência Certificada ou Materiais de Referência Padrão que contém

uma propriedade com nível de incerteza conhecida. São exemplos:

1. solução padrão de pH para calibrar e ajustar indicadores e transmissores de análise de pH,

2. gases de pureza definida para calibrar cromatógrafos

3. chapas de aço com revestimento definido para calibrar e ajustar indicadores de espessura a raios-X,

4. rochas, minerais, misturas de gases, vidros, misturas de hidrocarbonetos, polímeros, pós, águas de chuva e sedimentos de rio e efluentes.

Os materiais de referência certificadas podem ser preparados por síntese, pelo próprio usuário ou podem ser comprados de laboratórios nacionais ou internacionais, credenciados ou com padrões rastreados.

Geralmente os materiais de referência certificada tem prazos de validade e requerem o controle da idade (age control).

4. Normas e Especificações

4.1. Norma Norma é algo estabelecido pela autoridade,

usuário ou consenso geral como um modelo ou exemplo a ser seguido. Existem normas de conduta para uma sociedade política e normas técnicas para uma sociedade tecnológica. Uma norma técnica é uma regra para uma atividade especifica, formulada e aplicada para o beneficio e com a cooperação de todos os envolvidos. Geralmente, uma norma é um documento que estabelece as limitações técnicas e aplicações para itens, materiais, processos, métodos, projetos e práticas de engenharia.

A norma é um documento que indica materiais, métodos ou procedimentos de fabricação, operação, manutenção ou testes de uma certa classe de equipamentos ou instrumentos. Por exemplo, há normas para manômetros, termômetros, medidores de vazão, vasos e tabulações de alta pressão. A norma fornece limites na faixa de materiais e propõe métodos aceitáveis, de modo que um produto ou procedimento possa satisfazer o objetivo para o qual ele foi projetado.

No Brasil, o órgão credenciado para gerar normas é a Associação Brasileira de Normas Técnicas (ABNT), que é uma empresa, não-governamental, sem fins lucrativos, credenciado pelo INMETRO.

Page 148: Metrologia 7a

Confirmação Metrológica

138

4.2. Especificações A função de uma especificação é a

descrição de um produto em termos da aplicação que o usuário pretende fazer dele. A especificação pode ter a mesma função da norma e algumas especificações são, de fato, normas ou elas podem ser derivadas e resultados de uma norma.

As especificações usualmente são mais detalhadas e menos genéricas para uma aplicação particular do que as normas.

As especificações e normas formam a base do sistema industrial. As especificações são essenciais a toda operação de compra-venda, tornando possível a padronização básica para o sistema de fabricação em massa industrial. Há cerca de 85 000 normas governamentais, publicas e privadas em uso nos Estados Unidos.

4.3. Hierarquia Pode-se identificar uma hierarquia de

normas usadas pela sociedade. As normas de valor são as de mais alto nível, em termos de seu impacto na sociedade. Estas normas tratam da regulação de radioativadade e da necessidade de água e ar limpo. As normas regulatórias são derivadas das normas de valor básicas. Há três tipos de normas regulatórias: 1. códigos e regulações da indústria, que são

produzidas pela indústria, 2. normas regulatórias consensuais

produzidas pelos membros das associações de normas e governo,

3. normas regulatórias mandatórias que são produtos exclusivos dos governos.

4.4. Tipos de Normas A ABNT edita seis tipos diferentes de

normas: 1. método de teste descreve os procedimentos

para determinar uma propriedade de um material ou desempenho de um produto,

2. especificação é uma declaração concisa das exigências a serem satisfeitas por um produto, material ou processo,

3. prática é o procedimento ou instrução para auxiliar a especificação ou método de teste,

4. terminologia fornece as definições e descrições dos termos, explicações de símbolos, abreviações e acrósticos,

5. guia oferece uma série de opções ou instruções mas não recomenda um modo de ação especifico,

6. classificação define os arranjos sistemáticos ou divisões de materiais ou produtos em grupos baseados em características similares.

4.5. Abrangência das Normas A norma pode ter quatro níveis em função

do grau de consenso necessário para seu desenvolvimento e uso.

1. norma de companhia, é o nível mais baixo, usado internamente para projeto, produção, compra ou controle de qualidade. O consenso é entre os empregados da companhia.

2. norma da indústria desenvolvida tipicamente por uma sociedade ou associação profissional. O consenso para estas normas é entre os membros da organização.

3. norma governamental reflete muitos graus de consensos. Às vezes, o governo adota normas preparadas pela iniciativa privada mas outras vezes elas podem ser escritas por um pequeno grupo.

4. norma de consenso total é o tipo de norma desenvolvido por todos os setores representativos, incluindo fabricantes, usuários, universidades, governo e consumidores.

4.6. Relação Comprador-Vendedor As normas e especificações possuem as

funções comercial e legal de 1. estabelecer níveis de aceitação do

produto entre fabricante e comprador 2. fornecer os níveis de qualidade, funções

e desempenho do produto. A norma deve ter o bom senso de

estabelecer limites tolerados razoáveis, de modo que o preço do produto seja acessível e o seu desempenho seja bom. O usuário quer um bom produto e não uma excelente especificação mas nenhum produto comercialmente disponível. Para tanto:

1. o usuário deve saber o que quer e ter clara a função do produto a ser aplicado. O usuário deve estabelecer: faixa de medição, exatidão, estabilidade, configuração e condições do processo que podem afetar o desempenho, resposta e confiabilidade do produto sendo aplicado.

2. o usuário deve conhecer as normas técnicas e legais e determinar como elas devem ser usadas para se obter o desempenho projetado do produto.

3. o usuário e o fornecedor devem concordar no documento de compra em que partes da especificação aplicam-se os limites concordados, que meios serão empregados prelo fabricante para se garantir que o produtor está dentro destes limites e que meios o usuário

Page 149: Metrologia 7a

Confirmação Metrológica

139

deve empregar para verificar se o produto entregue, de fato, satisfaz as especificações e as normas envolvidas.

O uso inteligente de normas e especificações garante produtos melhores e medidores mais exatos e confiáveis nas aplicações do usuário.

4.7. Organizações de Normas Qualquer medição é feita com relação a

outra medição. Quando se fala de exatidão, implica em uma medição comparada com algum padrão aceitável para esta medição. Os padrões nacionais para todas as medições no Brasil estão guardados no INMETRO.

Tab. 5.4. Laboratórios Nacionais de Metrologia

País Laboratório Brasil INMETRO - Instituto Nacional de

Metrologia, Normalização e Qualidade Industrial

EUA NIST - National Institute of Standards and Technology (ex-NBS, National Bureau of Standards)

França Bureau International de Poids et Mesures

UK National Physical Laboratory Alemanha Physikalisch-Technische

Bundesanstalt (PTB) Itália Instituto de Metrologia Gustavo

Colonnetti

4.8. INMETRO O Sistema Nacional de Metrologia,

Normalização e Qualidade Industrial (SINMETRO) foi criado pela lei 5966 de 11 DEZ 73, com a finalidade de formular e executar a política de Metrologia, Normalização e Certificação de Qualidade dos produtos brasileiros. O SINMETRO estabelece o Sistema Nacional de Medição (SNM) e é composto de:

1. INMETRO - Instituto Nacional de Metrologia, Normalização e Qualidade Industrial,

2. CONMETRO - Conselho Nacional de Metrologia, Normalização e Qualidade Industrial.

O INMETRO estabelece a base técnica, legal e ética para todas as medições. O processo de medição envolve amostras, padrões físicos, materiais de referência certificada, garantia da qualidade metrológica, normas e procedimentos. O INMETRO é também o depositário destes parâmetros. Para realizar esta tarefa extensa, o INMETRO criou a Rede Brasileira de Calibração, credenciando laboratórios para emitir certificados de calibração de grandezas físicas especificas. Nesta rede, o INMETRO tem o nível mais alto com os padrões nacionais.

Apostilas\Metrologia 5Calibração.DOC 24 SET 98 (Substitui 02 ABR 98)

Page 150: Metrologia 7a

Confirmação Metrológica

140

Fig. 5.9. Cadeia ou pirâmide da rastreabilidade de padrões

B.I.P.M

NIST EUA

PTB Alemanha

INMETRO Brasil

NRLM Japão

IMGC Itália

Rede Brasileira de Calibração

Observatório Nacional

Laboratório CST Laboratório

USP

Temperatura Padrão

Referência Eletricidade

Padrão Transferência

Pressão

Padrão Trabalho

Massa

Outros

Laboratório de Furnas

Laboratório do IPT

Instrumento do Usuário

Vazão

Page 151: Metrologia 7a

141

A. Vocabulário de Metrologia

As definições dos termos metrológicos gerais relevantes para este

trabalho são dadas a partir do International vocabulary of basic and general terms in metrology (abreviado VIM), 2a ed. , publicado pela ISO, elaborado por especialistas e em nome das sete organizações que suportam seu desenvolvimento:

1. Bureau Internacional de Poids et Mesures (BIPM), 2. International Electrotechnical Comission (IEC), 3. International Federation of Clinical Chemistry (IFCC), 4. Organization International of Standardization (ISO), 5. International Union of Pure and Applied Chemistry (IUPAC), 6. International Union of Pure and Appplied Physics (IUPAP) e 7. International Organization of Legal Metrology (OIML). O VIM deve ser a primeira fonte consultada para as definições

dos termos não incluídos aqui. Nas definições seguintes, o uso de parênteses em torno de certas palavras de alguns termos significa que as palavras podem ser omitidas se isto não causar confusão. Os termos em negrito em alguns notas são termos metrológicos adicionais definidos nestas notas, explicita ou implicitamente.

Os termos estão também consistentes com a Portaria 29, de 10 de março de 1995, do Instituo Nacional de Metrologia, Normalização e Qualidade Industrial INMETRO.

Page 152: Metrologia 7a

Vocabulário de Metrologia

142

1. Grandezas e Unidades

1.1. Grandeza (mensurável) Grandeza ou grandeza é o atributo de um

fenômeno, corpo ou substância que pode ser distinguido qualitativamente e determinado quantitativamente. O termo grandeza pode se referir a uma grandeza no sentido geral (ver exemplo 1) ou a uma grandeza particular [ver exemplo 2). Exemplos: 1. grandeza no sentido geral: comprimento,

tempo, massa, temperatura, resistência elétrica, concentração e grandeza de substância;

2. grandezas particulares: comprimento de uma dada barra, resistência elétrica de um dado fio de cobre concentração de etanol em uma dada amostra de vinho.

As grandezas que podem ser colocadas em ordem de valor relativo a uma outra são chamadas de grandezas de mesma espécie. Grandezas da mesma espécie podem ser agrupadas juntas em categorias de grandezas. Por exemplo:

1. trabalho, calor, energia 2. espessura, circunferência, raio de

círculo e comprimento de onda. Grandezas de mesma espécie são expressas com a mesma unidade SI. Os nomes e símbolos para as grandezas são dados pelo SI (Sistema Internacional de Unidades)

1.2. Grandeza medida (Mensurando) O primeiro passo na medição é especificar

a grandeza a ser medida ou o mensurando. O mensurando não pode ser especificado por um valor mas somente por uma descrição de uma grandeza. Porém, em princípio, um mensurando não pode ser completamente descrito sem uma grandeza infinita de informação. Assim, para a extensão que lhe deixa espaço para interpretação, a definição incompleta do mensurando introduz na incerteza do resultado de uma medição uma componente de incerteza que pode ou não pode ser significativa com relação à exatidão requerida da medição.

A definição de um mensurando especifica certas condições físicas. Exemplo - A velocidade do som no ar seco de composição (fração molar):

N2 = 0,7808 O2 = 0,1095 Ar = 0,009 35

CO2 = 0,000 35 à temperatura T = 273,15 K e pressão p = 101 325 Pa.

1.3. Grandeza de base No Sistema Internacional de Unidades (SI),

é a grandeza aceita como independente de uma outra grandeza, por convenção e função.

Atualmente, há sete grandezas de base: 1. comprimento 2. massa 3. tempo 4. temperatura 5. corrente elétrica 6. quantidade de substância 7. intensidade luminosa

1.4. Grandeza suplementar No SI, é a grandeza aceita como

independente de uma outra grandeza, por convenção e função. Por questão histórica, é chamada de suplementar, quando pode ser considerada também de base.

As duas grandezas suplementares são: 1. ângulo plano 2. ângulo sólido

1.5. Grandeza derivada Grandeza definida, em um sistema de

grandezas, como função de grandezas de base deste sistema. A grandeza derivada é geralmente obtida pela multiplicação e divisão de grandezas de base e outras derivadas.

Exemplos de grandezas derivadas: 1. área é uma grandeza derivada do

quadrado do comprimento. 2. volume é uma grandeza derivada do cubo

do comprimento 3. velocidade é uma grandeza derivada do

comprimento dividido por tempo 4. aceleração é uma grandeza derivada da

velocidade dividida por tempo ou do comprimento dividido pelo tempo ao quadrado

5. força é uma grandeza derivada da massa multiplicada pelo comprimento e dividida pelo quadrado do tempo.

Há uma infinidade de grandezas derivadas; algumas com nomes e unidades próprias.

1.6. Grandeza, dimensão de uma Expressão que representa uma grandeza

de um sistema de grandezas, como produto das potências (positivas ou negativas) dos fatores que representam as grandezas de base deste sistema. Exemplos:

Page 153: Metrologia 7a

Vocabulário de Metrologia

143

1. Dimensão de área: L2 2. Dimensão de volume: L3 3. Dimensão de velocidade: LT-1 4. Dimensão de aceleração: LT-2 5. Dimensão de força: MLT-2 Os fatores que representam as grandezas

de base são chamados de dimensões dessas grandezas. A área possui dimensão de comprimento ao quadrado.

Grandeza adimensional é aquela onde todos os expoentes das dimensões das grandezas de base são zero. Na prática, grandeza adimensional não tem dimensão. Exemplos:

1. densidade relativa (densidade de fluido dividida pela densidade da água ou do ar)

2. coeficiente de atrito 3. número de Mach 4. número de Reynolds

1.7. Unidade (de medição) Grandeza específica definida e adotada por

convenção, com a qual outras grandezas de mesma natureza são comparadas para expressar suas magnitudes em relação àquela grandeza.

Cada grandeza deve ter uma única unidade de medição. Quando os números associados do valor da grande forem muito grandes, deve-se usar múltiplos decimais ou quando forem muito pequenos, usam-se submúltiplos. Por exemplo, kilômetro é um múltiplo de metro e milímetro é um submúltiplo de metro.

Unidades de medição tem nomes e símbolos aceitos por convenção. Por exemplo, a unidade de massa é o kilograma, símbolo kg. Outro exemplo: a unidade de comprimento é o metro, símbolo m.

Unidades de grandezas de mesma dimensão podem ter os mesmos nomes e símbolos, mesmo quando as grandezas não são de mesma natureza. Por exemplo, energia (elétrica, química, termodinâmica ou mecânica) tem unidade de joule, simbolizada por J.

1.8. Unidade, símbolo de Símbolo de uma unidade é um sinal

convencional que a designa. Símbolo não é abreviatura. Símbolo de metro é m, símbolo de kilograma é kg; símbolo de corrente elétrica é A.

1.9. Unidade, sistema de Sistema de unidades de medição é um

conjunto das unidades de base, suplementares e derivadas, definido de acordo com regras específicas, para um dado sistema de grandezas. Já existiram vários sistemas de unidades: CGS, MKSA, inglês e chinês. Hoje, o sistema de unidades a ser usado por todo técnico é o SI, (símbolo de Sistema Internacional de Unidades).

O SI é um sistema de unidades coerente, completo, decimal, universal.

1.10. Valor (de uma grandeza) O valor é a magnitude ou a expressão

quantitativa de uma grandeza particular geralmente expresso como uma unidade de medição multiplicada por um número. Exemplos

comprimento de uma barra: 5,34 m ou 534 cm;

massa de um corpo: 0,152 kg ou 152 g; grandeza de substância de uma amostra

de água (H2O): 0,012 mol ou 12 mmol. Notas:

1. O valor de uma grandeza pode ser positivo, negativo ou zero.

2. O valor de uma grandeza pode ser expresso em mais de um modo.

3. Os valores das grandezas de dimensão 1 são expressos como números isolados.

4. Uma grandeza que não pode ser expressa como uma unidade de medição multiplicada por um número pode ser expressa por referência a uma escala padrão convencional ou por um procedimento de medição ou por ambos.

1.11. Valor verdadeiro (de uma grandeza)

O valor verdadeiro é aquele consistente com a definição de uma dada grandeza particular. 1. Este é um valor que seria obtida por uma

medição perfeita 2. Valores verdadeiros são, por natureza,

indeterminados 3. O artigo indefinido um, em vez do artigo

definido o, é usado em conjunto com valor verdadeiro, porque pode haver vários valores verdadeiros.

Page 154: Metrologia 7a

Vocabulário de Metrologia

144

1.12. Valor verdadeiro convencional (de uma grandeza)

O valor verdadeiro convencional é aquele atribuído a uma grandeza particular e aceito, algumas vezes por convenção, como tendo uma incerteza apropriada para um dado objetivo. Exemplos a) em um dado local, o valor atribuído à

grandeza realizada por um padrão de referência pode ser tomada como um valor verdadeiro convencional;

b) o valor recomendado pelo CODATA (1986) para a constante de Avogrado: 6,022 136 7 x 1023 mol-1.

1. O valor verdadeiro convencional é geralmente chamado de valor atribuído, melhor estimativa do valor, valor convencional ou valor de referência.

2. Freqüentemente, um número de resultados de medições de uma grandeza é usado para estabelecer um valor verdadeiro convencional.

1.13. Valor verdadeiro, erro e incerteza

O termo valor verdadeiro tem tradicionalmente sido usado em publicações sobre incerteza mas não neste trabalho pelas seguintes razões.

O resultado de uma medição da grandeza realizada é corrigido para a diferença entre esta grandeza e o mensurando de modo a prever o que o resultado da medição teria sido se a grandeza realizada, de fato, satisfizesse totalmente a definição do mensurando. O resultado da medição da grandeza realizada é também corrigido para todos os outros efeitos sistemáticos significativos reconhecidos. Embora o resultado final corrigido final seja geralmente visto como a melhor estimativa do valor verdadeiro do mensurando, na realidade o resultado é simplesmente a melhor estimativa do valor da grandeza que se quer medir.

Como exemplo, suponha que o mensurando é a espessura de uma dada folha de material em uma especificada temperatura. A peça é trazida para a temperatura próxima da temperatura especificada e sua espessura, em um determinado local, é medida com um micrômetro. A espessura do material neste local e temperatura, sob a pressão aplicada pelo micrômetro, é a grandeza realizada.

A temperatura do material na hora da medição e a pressão aplicada são determinadas. O resultado não corrigido da medição da grandeza realizada é então corrigido levando em conta a curva de

calibração do micrômetro, o afastamento da temperatura do equipamento da temperatura especificada e a leve compressão da peça sob a pressão aplicada.

O resultado corrigido pode ser chamado a melhor estimativa do valor verdadeiro, verdadeiro no sentido que é o valor da grandeza que se acredita satisfazer totalmente a definição do mensurando mas tem o micrômetro sido aplicada a diferença parte da folha de material, a grandeza realizada teria sido diferente com um diferente valor verdadeiro. Porém, este valor verdadeiro seria consistente com a definição do mensurando porque o último não especificou que a espessura era para ser determinada neste determinado ponto da folha. Assim, neste caso, por causa de uma definição incompleta do mensurando, o valor verdadeiro tem uma incerteza que pode ser avaliada das medidas feitas em diferentes pontos da folha. Em algum nível, cada mensurando tem uma incerteza intrínseca que pode, em princípio, ser estimada de algum modo. Esta é a mínima incerteza com que um mensurando pode ser determinado e cada medição tem tiver esta incerteza pode ser vista como a melhor medição possível do mensurando. Para obter um valor da grandeza em questão tendo uma menor incerteza requer que o mensurando seja definido com mais detalhes. 1. No exemplo, a especificação do

mensurando deixa muitos outras informações em dúvida que poderiam afetar a espessura: pressão barométrica, umidade, atitude da folha no campo gravitacional, o modo como ela é suportada.

2. Embora um mensurando seja definido em detalhe suficiente, de modo que qualquer incerteza resultante de sua definição incompleta seja desprezível em comparação com a exatidão requerida da medição, deve ser reconhecido que isto pode nem sempre ser praticável. A definição pode, por exemplo, ser incompleta porque ela não especifica parâmetros que deveriam ser assumidos, injustificavelmente, tendo efeito desprezível; ou ela pode implicar condições que nunca são totalmente satisfeitas e cuja realização imperfeita é difícil de considerar. Por exemplo, a velocidade do som implica ondas planas infinitas com pequena amplitude. Para o objetivo que a medição não satisfaz estas condições, a difração e os efeitos não lineares devem ser considerados.

3. Especificação inadequada do mensurando pode levar a discrepâncias dos resultados das medições da ostensivamente mesma grandeza feitas em diferentes laboratórios.

Page 155: Metrologia 7a

Vocabulário de Metrologia

145

O termo valor verdadeiro de um mensurando ou de uma grandeza (muitas vezes truncado para valor verdadeiro) é evitado neste trabalho porque a palavra verdadeiro é vista como redundante. Mensurando significa grandeza particular sujeita à medição, assim valor de um mensurando significa valor de uma grandeza particular sujeita à medição. Desde que grandeza particular é geralmente entendida para significar uma grandeza definida ou especificada, o adjetivo verdadeiro em valor verdadeiro de um mensurando (ou em valor verdadeiro de uma grandeza) é desnecessário - o valor verdadeiro do mensurando (ou grandeza) é simplesmente o valor do mensurando (ou grandeza). Além disso, como indicado na discussão acima, um único valor verdadeiro é apenas um conceito idealizado.

1.14. Valor numérico (de uma grandeza)

O valor numérico é o número que multiplica a unidade na expressão do valor de uma grandeza. Exemplo, No valor do comprimento de uma barra:

5,34 m; 5,34 é o valor numérico. No valor da massa de um corpo: 0,152 kg;

0,152 é o valor numérico.

2. Medição

2.1. Metrologia Metrologia é a ciência que trata das

medição, tratando de seus aspectos teóricos e práticos, incluindo a incerteza, em todos os campos da ciência ou da tecnologia.

2.2. Medição Medição é um conjunto de operações com o

objetivo de determinar um valor de uma grandeza.

As operações podem ser feitas manualmente ou automaticamente.

2.3. Princípio de medição Princípio é a base científica de uma

medição. Exemplos 1. efeito termelétrico aplicado à medição de

temperatura; 2. efeito Josephson aplicado à medição de

diferença de potencial elétrico; 3. efeito Doppler aplicado à medição de

velocidade ou de vazão;

4. efeito Raman aplicado à medição do número de onda de vibrações moleculares.

2.4. Método de medição Método é a seqüência lógica de operações,

descrita genericamente, usada para fazer medições

Métodos de medição podem ser qualificados em vários modos, tais como:

1. direto 2. substituição 3. comparação ou balanço de nulo

2.5. Procedimento de medição Procedimento é um conjunto de operações,

descrito especificamente e usado para fazer medições particulares de acordo com um dado método

Um procedimento de medição é usualmente registrado no documento que é geralmente chamado de procedimento de medição (ou um método de medição) e é usualmente em detalhe suficiente para possibilitar um operador fazer uma medição sem informação adicional.

2.6. Mensurando (mensurand) Mensurando é o objeto da medição ou a

grandeza particular sujeita à medição. Por exemplo - pressão de vapor de uma dada amostra de água a 20 oC. A especificação de um mensurando pode requerer declaração acerca de grandezas como tempo, temperatura e pressão.

2.7. Grandeza de influência É a grandeza que não é o mensurando mas

que afeta o resultado da medição. Exemplos 1. temperatura de um micrômetro usado para

medir comprimento 2. freqüência na medição da amplitude de

uma diferença de potencial elétrica alternada.

3. concentração de bilirubin na medição de concentração de hemoglobina em uma amostra de plasma sangüíneo do homem.

4. A grandeza de influência inclui valores associados com padrões de medição, materiais de referência e dados de referência dos quais o resultado de uma medição pode depender, bem como os fenômenos tais como flutuações rápidas do instrumento de medição e grandezas tais como temperatura ambiente, pressão barométrica e umidade.

Page 156: Metrologia 7a

Vocabulário de Metrologia

146

2.8. Grandeza de modificação É a grandeza que não é o mensurando mas

que afeta o resultado da medição, alterando o seu valor justo na medição, diretamente no elemento sensor. Exemplos

1. temperatura e pressão na medição da vazão volumétrica de gás. Como o volume depende da pressão e da temperatura do gás, estas variáveis modificam o valor medido da vazão volumétrica do gás.

2. densidade na medição de nível de líquido através da pressão diferencial. Como a pressão diferencial exercida pela coluna líquida depende da densidade do líquido, aceleração da gravidade e da altura do líquido, o nível é modificado pela densidade.

A modificação pode ser eliminada ou diminuída através da compensação da medição, quando se fazem as medições que afetam a variável medida e o cálculo matemático para eliminar a modificação. Por exemplo, na medição de nível de líquido com densidade variável através da pressão diferencial, medem-se a pressão diferencial e a densidade do líquido e aplicam-se os dois sinais a um divisor de sinais. A saída do divisor é proporcional apenas ao nível.

2.9. Sinal de medição (measurement signal)

Sinal é a grandeza que representa a quantidade medida ao qual está funcionalmente relacionada. O sinal contem a informação. Exemplos de sinais:

1. deslocamento na saída de um sensor mecânico de pressão

2. sinal padrão de 4 a 20 mA na saída de um transmissor eletrônico de temperatura

3. sinal padrão de 20 a 100 kPa na saída de um transmissor pneumático de nível.

4. tensão ou força eletromotriz de um termopar usado para medir a temperatura de um processo.

O sinal de entrada de um dispositivo pode ser considerado estímulo; o sinal de saída pode ser considerado resposta.

O sinal pode sofrer várias modificações ao longo do sistema de medição, porém deve preservar inalterada a informação da medição. Por exemplo, ele pode ser filtrado, amplificado, convertido em outra forma de energia, compensado, blindado.

2.10. Ruído (noise) Grandeza da mesma natureza que o sinal

que afeta a medição, provocando erro de influência. O ruído pode ser eliminado ou diminuído através de várias técnicas, como

1. posição relativa entre instrumento de medição e fonte de ruído

2. blindagem e aterramento quando ruído for de natureza elétrica

3. Resultado da Medição

3.1. Resultado de uma medição É o valor atribuído a um mensurando, obtido

por medição. 1. Quando um resultado é dado, deve ficar

claro se ele se refere a - uma indicação - um resultado não corrigido - um resultado corrigido

- média de vários valores 2. Uma apresentação completa do

resultado de uma medição inclui informação acerca da incerteza da medição.

3.2. Resultado não corrigido Resultado de uma medição antes da

correção devida aos erro sistemáticos.

3.3. Resultado corrigido Resultado de uma medição depois da

correção devida aos erros sistemáticos.

3.4. Erro (da medição) Erro é o resultado de uma medição menos

um valor verdadeiro do mensurando. 1. Desde que um valor verdadeiro não

pode ser determinado, na prática é usado um valor verdadeiro convencional.

2. Quando for necessário distinguir erro de erro relativo, o erro é geralmente chamado de erro absoluto da medição, que não deve ser confundido com o valor absoluto do erro, que é o módulo do erro.

3. Se o resultado de uma medição depende dos valores de outras grandezas diferentes do mensurando, os erros dos valores medidos destas grandezas contribuem para o erro do resultado da medição.

Page 157: Metrologia 7a

Vocabulário de Metrologia

147

3.5. Erro relativo Erro relativo é erro da medição dividido por

um valor verdadeiro do mensurando Nota - Desde que um valor verdadeiro não pode ser determinado, na prática, é usado um erro verdadeiro convencional.

3.6. Erro aleatório Erro aleatório um resultado de uma medição

menos a média que resultaria de um número infinito de medições do mesmo mensurando feitas sob as condições de repetitividade.

1. Erro aleatório é igual ao erro menos o erro sistemático.

2. Como pode ser feito somente um número finito de medições, é possível determinar somente uma estimativa do erro aleatório.

3.7. Erro sistemático Erro sistemático é média que resultaria de

um número infinito de medições do mesmo mensurando feitas sob as condições de repetitividade menos um valor verdadeiro do mensurando.

1. Erro sistemático é igual ao erro menos o erro aleatório.

2. Como o valor verdadeiro, o erro sistemático e suas causas não podem ser completamente conhecidos.

3. Para um instrumento de medição, o erro sistemático é chamado de polarização (bias)

4. O erro do resultado de uma medição pode geralmente ser considerado como resultante de um número de efeitos aleatórios e sistemáticos que contribuem com componentes individuais para o erro do resultado.

3.8. Correção (do erro) Correção do erro é o valor somado

algebricamente ao resultado não corrigido de uma medição para compensar o erro sistemático

1. A correção é igual ao negativo do erro sistemático estimado.

2. Como o erro sistemático não pode ser perfeitamente conhecido, a compensação não pode ser completa.

3.9. Fator de correção Fator numérico pelo qual o resultado não

corrigido de uma medição é multiplicado para compensar o erro sistemático

3.10. Incerteza A palavra incerteza significa dúvida e assim

em seu sentido mais amplo incerteza da medição significa dúvida acerca da validade do resultado de uma medição.

3.11. Incerteza (da medição) A incerteza da medição é um parâmetro

associado com o resultado de uma medição que caracteriza a dispersão dos valores que podem razoavelmente ser atribuídos ao mensurando.

1. O parâmetro pode ser, por exemplo, um desvio padrão (ou um dado múltiplo dele) ou a meia largura de um intervalo com determinado nível de confiança.

2. A incerteza de uma medição compreende, em geral, muitos componentes. Alguns destes componentes podem ser avaliados da distribuição estatística dos resultados de séries de medições e podem ser caracterizados por desvios padrão experimentais. Os outros componentes, que também podem ser caracterizados por desvios padrão, são avaliados de distribuições de probabilidade assumidas baseadas na experiência ou em outras informações.

3. O resultado da medição é a melhor estimativa do valor do mensurando e todos os componentes da incerteza, incluindo os que aparecem de efeitos sistemáticos, tais como os componentes associados com correções e padrões de referência, contribuem para a dispersão.

A definição anterior de incerteza de medição é um operacional que focaliza o resultado da medição e sua incerteza avaliada. Outros conceitos de incerteza da medição podem ser:

1. uma medida do erro possível no valor estimado do mensurando como o fornecido pelo resultado de uma medição;

2. uma estimativa caracterizando a faixa de valores dentro da qual cai o valor verdadeiro de um mensurando.

Embora estes dois conceitos tradicionais sejam válidos como ideais, eles envolvem grandezas desconhecidas como o erro do resultado de uma medição e o valor verdadeiro do mensurando (em contraste com o seu valor estimado), respectivamente.

Uma vez que os valores exatos das contribuições para o erro de um resultado de uma medição são desconhecidos e desconhecíveis, as incertezas associadas com os efeitos aleatórios e sistemáticos que provocam o erro podem ser avaliados. Mas

Page 158: Metrologia 7a

Vocabulário de Metrologia

148

mesmo se as incertezas avaliadas são pequenas, ainda não há garantia que o erro no resultado da medição é pequeno; para a determinação de uma correção ou na avaliação do conhecimento incompleto, um efeito sistemático pode sido omitido por que ele não é reconhecido. Assim, a incerteza de um resultado de uma medição não é necessariamente uma indicação da probabilidade que o resultado da medição está próximo do valor do mensurando; ele é simplesmente uma estimativa da probabilidade de proximidade ao melhor valor que é consistente com o conhecimento atualmente disponível.

A incerteza da medição é assim uma expressão do fato que, para um dado mensurando e um dado resultado da medição dele, não há um valor mas um número infinito de valores dispersos em torno do resultado que são consistente com todas as observações e dados e seu conhecimento do mundo físico e que, com graus variáveis de credibilidade, podem ser atribuídos ao mensurando.

Felizmente, em muitas medições práticas, muito da discussão deste Anexo não se aplica. Exemplos são quando o mensurando é adequadamente bem definido, quando padrões ou instrumentos são calibrados usando padrões de referência bem conhecidos que são rastreáveis a padrões nacionais; e quando as incertezas das correções da calibração aparecem de efeitos aleatórios nas indicações de instrumentos ou de um número limitado de observações. Todavia, o conhecimento incompleto das grandezas de influência e seus efeitos podem geralmente contribuir significativamente para a incerteza do resultado de uma medição.

3.12. Incerteza padrão Incerteza do resultado de uma medição

expressa como um desvio padrão.

3.13. Incerteza padrão combinada Incerteza padrão do resultado de uma

medição quando este resultado é obtido dos valores de várias outras grandezas, iguais à raiz quadrada positiva de uma soma de termos, os termos sendo as variâncias ou covariâncias destas outras grandezas com pesos de acordo com o modo que o resultado da medição varia com alterações destas grandezas.

3.14. Incerteza expandida Grandeza que define um intervalo dentro do

qual o resultado de uma medição que é esperado incluir uma grande fração da distribuição de valores que podem razoavelmente ser atribuídos ao mensurando.

1. A fração pode ser vista como a probabilidade de cobertura ou nível de confiança do intervalo.

2. Associar um nível específico de confiança com o intervalo definido pela incerteza expandida requer hipóteses explícita ou implícita com relação a distribuição de probabilidade caracterizada pelo resultado da medição e sua incerteza padrão combinada. O nível de confiança que pode ser atribuído a este intervalo pode ser conhecido somente na extensão em que tais hipóteses possam ser justificadas.

3. A incerteza expandida é também chamada de incerteza total.

3.15. Avaliação Tipo A (de incerteza) Método de avaliação da incerteza por

análise estatística de séries de observações, geralmente aplicado às incertezas aleatórias, cuja distribuição é normal ou gaussiana.

3.16. Avaliação Tipo B (de incerteza) Método de avaliação da incerteza por meios

diferentes de análise estatística de séries de observações, geralmente aplicado às incertezas sistemáticas, cuja distribuição não é normal e geralmente é retangular.

3.17. Fator de cobertura Um número que, quando multiplicado pela

incerteza padrão combinada, produz um intervalo (incerteza expandida) em torno do resultado da medição que pode ser esperado englobar uma grande fração especificada (e.g., 95%) da distribuição dos valores que podem razoavelmente ser atribuídos à grandeza medida.

Fator numérico usado como um multiplicador da incerteza padrão combinada de modo a obter uma incerteza expandida. Um fator de cobertura, k, é tipicamente na faixa de 2 a 3.

Page 159: Metrologia 7a

Vocabulário de Metrologia

149

4. Instrumento de Medição Há muitos termos empregados para

descrever os artefatos utilizados nas medições. Eles não são mutuamente excludentes. Alguns são precisos outros são ambiguos, alguns são genéricos outros são específicos, alguns são usados por técnicos, outros por leigos. Os principais nomes são:

1. elemento 2. componente 3. parte 4. transdutor de medição 5. dispositivo de medição 6. medidor 7. instrumento de medição 8. aparelho 9. equipamento 10. malha de medição 11. instalação de medição 12. sistema de medição Em Instrumentação, uma malha de medição

é constituída dos seguintes componentes, que podem estar fisicamente separados ou alojados em um único invólucro:

1. sensor 2. condicionador 3. display

4.1. Instrumento de medição (measuring instrument)

Dispositivo utilizado para realizar uma medição, isolado ou em conjunto com outros dispositivos complementares.

4.2. Medida materializada (material measure)

Dispositivo destinado a reproduzir ou fornecer, de maneira constante durante seu uso, um ou mais valores conhecidos e confiáveis de uma dada grandeza. É também chamado material de referência certificado. Exemplos:

1. Massa padrão 2. Bloco padrão de comprimento 3. Medida de volume (de um ou vários

valores, com ou sem escala graduada) 4. Resistor elétrico padrão 5. Gerador de sinal padrão 6. Solução padrão de pH

4.3. Transdutor de Medição (measuring transducer)

Genericamente, transdutor é qualquer dispositivo que modifica a forma de energia, da entrada para a saída. As formas de energia na entrada e saída são diferentes, porém há uma

relação matemática definida entre ambas. Exemplos:

1. termopar 2. transformador de corrente 3. célula extensiométrica para medir

pressão eletricamente 4. eletrodo de pH

4.4. Transmissor (transmitter) Instrumento que sente uma variável de

processa e gera na saída um sinal padrão proporcional ao valor da variável medida. Pode ser de natureza eletrônica (sinal de 4 a 20 mA cc) ou pneumática (sinal de 20 a 100 kPa).

É utilizado para 1. usar o sinal remotamente 2. isolar processo do display 3. padronizar sinais

4.5. Cadeia de medição (measuring chain)

Seqüência de elementos de um instrumentos ou sistema de medição formando o trajeto do sinal de medição, desde o estimulo (entrada) até a resposta (saída). O instrumentista diz: malha de medição (measuring loop).

Uma cadeia de medição de temperatura pode ser formada por: termopar, fios de extensão, junta de referência e indicador de temperatura.

4.6. Sistema de medição (measuring system)

Conjunto completo de instrumentos de medição e outros equipamentos associados para executar uma determinada medição. Em certos casos, eqüivale à cadeia ou malha de medição.

Um sistema de medição pode incluir medidas materializadas e reagentes químicos.

Sistema de medição instalado de modo permanente é chamado de instalação de medição.

4.7. Indicador (indicator) Instrumento de medição que sente uma

variável e apresenta o resultado instantâneo em uma escala com ponteiro ou através de dígitos.

Exemplos: 1. voltímetro 2. frequencímetro 3. termômetro 4. manômetro

Page 160: Metrologia 7a

Vocabulário de Metrologia

150

A indicação pode ser analógica, (contínua ou discreta), através de escala e ponteiro ou digital, através de dígitos.

Um indicador pode apresentar os valores de várias grandezas independentes, de modo simultâneo ou um valor de cada vez, de modo selecionável manual ou automaticamente.

O indicador pode também estar associado às funções de

1. transmissão 2. registro 3. controle O leigo também chama o indicador de

relógio, mostrador ou medidor, que são nomes ambíguos e devem ser evitados.

4.8. Registrador (recorder) Instrumento de medição que sente uma

variável e imprime o resultado historico ou de tendência em um gráfico através de penas com tinta.

Exemplos: 1. registrador de temperatura 2. registrador de vazão, pressão e

temperatura O registro pode ser contínuo, com uma a

quatro penas independentes ou pode ser discreto, quando cada ponto de registro é feito um de cada vez, em uma seqüência fixa definida (registrador multiponto).

Um registrador pode apresentar os valores de várias grandezas independentes, de modo simultâneo ou um valor de cada vez, de modo selecionável manual ou automaticamente.

O registrador pode também estar associado às funções de

1. indicação 2. controle

4.9. Totalizador (totalizer) Instrumento de medição que determina o

valor de uma grandeza por meio do acúmulo dos valores parciais, durante determinado intervalo de tempo. É também chamado de integrador. Geralmente a integração é feita em relação ao tempo. O totalizador multiplica a variável totalizada por um intervalo de tempo, de modo que a integração da velocidade é distância, da potência é energia, da vazão volumétrica é volume.

Exemplos: 1. totalizador de potência elétrica, que

apresenta o valor totalizado no tempo em energia.

2. totalizador de vazão, que apresenta o valor totalizado no tempo em volume ou massa.

3. totalizador de velocidade, que apresenta o valor totalizado no tempo em distância.

O totalizador pode receber em sua entrada sinal analógico ou digital. Sua saída é sempre um contador. Quando um totalizador pára de totalizar, a sua saída fica congelada no último valor acumulado.

O display do contador é geralmente digital, porém é possível ter display analógico.

4.10. Instrumento analógico (analog instrument) e digital (digital instrument)

O fato de um instrumento ser analógico ou digital depende de quatro parâmetros, cada um podendo analógico ou digital:

1. sinal 2. função 3. tecnologia 4. display Na prática, quando se fala de um

instrumento analógico ou digital, está-se referindo implicitamente ao display e não necessariamente aos outros três parâmetros. Assim, instrumento analógico é aquele que apresenta a indicação através do conjunto escala e ponteiro e instrumento digital é aquele que apresenta a indicação através de dígitos.

4.11. Mostrador (display, dial) Mostrador é a parte do indicador que

apresenta a indicação. Quando analógico, é o conjunto escala e ponteiro e quando digital, o conjunto de dígitos.

O mostrador pode ter diferentes 1. formatos: circular, reto horizontal, reto

vertical, 2. tamanhos 3. cores 4. princípios de operação ou

acionamento: eletrônico, pneumático ou mecânico

4.12. Índice (index) Parte fixa ou móvel de um dispositivo mostrador, cuja posição em relação às marcas da escala define o valor indicado.

O índice pode ser 1. ponteiro 2. ponto luminoso 3. superfície de um líquido 4. pena de registrador 5. lâmpadas ou LEDs (diodo emissor de

luz) que se acendem em um conjunto

Page 161: Metrologia 7a

Vocabulário de Metrologia

151

4.13. Escala (scale) Régua graduada do indicador, em ordem

crescente ou decrescente, contínua ou discreta, sobre a qual um ponteiro se posiciona para fornecer o valor indicado da medição. No conjunto escala e ponteiro, um dos dois é fixo e o outro, móvel. Geralmente, a escala é fixa e o ponteiro é móvel.

A graduação da escala pode ser uniforme ou linear ou pode ser não linear específica.

Quanto maior a escala e o número de marcas (divisões), maior é a precisão e resolução da indicação e maior é a quantidade de algarismos significativos no resultado da indicação.

Escala de valor de referência ou escala de referência convencional é usada para comparar grandezas específicas, como a escala de dureza Mohs, escala de pH, escala de índice de octanas para gasolina.

4.14. Escala com zero suprimido (supressed zero scale)

Escala cuja faixa de indicação não inclui o valor zero. Por exemplo, escala do termômetro clinico, que vai de 35 a 42 oC.

4.15. Escala com zero elevado (elevated zero scale)

Escala cuja faixa de indicação onde o valor 0% é negativo e por isso o zero está elevado em relação ao 0%. Por exemplo, escala de termômetro que vai de -20 a 50 oC. O valor 0 oC está elevado em relação ao 0% (-20 oC).

4.16. Escala expandida (expanded scale)

Escala na qual parte da faixa de indicação ocupa um comprimento da escala que é desproporcionalmente maior do que outras partes.

4.17. Sensor (sensor) Sensor é o elemento de um instrumento de

medição ou de uma malha de medição que é diretamente afetado pela quantidade medida. O sensor detecta a variável, gerando um sinal proporcional a ela. Nomes alternativos de sensor: detector, elemento primário, elemento transdutor, captador, probe.

Em função de seu sinal de saída, o sensor pode ser mecânico (saída é um deslocamento ou movimento) ou eletrônico (saída é uma tensão ou variação de parâmetro eletrônico, como resistência, indutância, capacitância).

O sensor depende umbilicalmente da variável medida, ou seja, o sensor é determinado pela variável medida. Exemplos:

1. termopar, que gera uma tensão em função da diferença da temperatura medida e a de referência

2. detector de temperatura a resistência (RTD) que varia a resistência elétrica em função da temperatura medida

3. placa de orifício que gera uma pressão diferencial proporcional ao quadrado da vazão volumétrica medida

4. bourdon C que gera um pequeno deslocamento em função da pressão aplicada

5. bóia de um sistema de medição de nível

6. tubo magnético de vazão que gera uma fem proporcional à vazão volumétrica de um líquido eletricamente condutor que passa em seu interior

Às vezes, o sensor indica apenas a presença ou ausência de uma grandeza, sem fornecer necessariamente o seu valor numérico. Por exemplo, detector de vazamento de gases, papel tornasol para indicar apenas se uma solução é ácida ou básica.

4.18. Faixa de indicação (range of indication)

Conjunto de valores compreendidos entre 0 e 100% das indicações. O 0% é o limite inferior e o 100% é o limite superior da indicação.

A faixa de indicação pode ser expressa em unidade de engenharia ou em percentagem.

Para o indicador analógico, a faixa de indicação é igual à faixa da escala.

O início da escala (0%) e o fim da escala (100%) podem ser iguais a zero, negativos ou positivos.

4.19. Amplitude de faixa (span of indication)

Diferença algébrica, em valor absoluto, do limite máximo (100%) e mínimo (0%) da faixa de indicação. Exemplos:

1. Largura da faixa de 0 a 100 oC é 100 oC 2. Largura da faixa de 20 a 100 oC é 80 oC 3. Largura da faixa de -20 a 100 oC é 120

oC 4. Largura da faixa de -40 a -20oC é 20 oC

Page 162: Metrologia 7a

Vocabulário de Metrologia

152

4.20. Escala linear (linear scale) Escala linear possui graduações ou

marcações uniformemente separadas. O instrumento possui escala linear quando há uma relação constante entre as saídas e entradas de todos os componentes da malha de medição, incluindo o sensor.

Quando aparece uma não linearidade na malha, ela pode ser corrigida imediatamente por alguma operação não linear inversa, através de circuito, instrumento ou programa. Quando o sinal de medição que chega à escala é linear, usa-se uma escala linear; quando for não linear, usa-se uma escala não linear específica. As escalas não lineares mais utilizadas em instrumentação são a logarítmica (escala do ohmímetro analógico) e a raiz quadrática (associada à medição de vazão com placa de orifício, geralmente chamada de quadrática – o que é incorreto!).

5. Características do Instrumento de Medição

Alguns dos termos utilizados para descrever as características de um instrumento de medição podem ser igualmente aplicáveis a sensores, condicionadores de sinal ou sistema de medição e também a medida materializada ou material de referência certificada.

5.1. Faixa nominal (nominal range) Faixa de indicação que se pode obter em

uma posição específica dos controles de um instrumento de medição.

A faixa nominal coincide geralmente com a faixa de medição ou de calibração do instrumento.

5.2. Valor nominal (nominal value) Valor teórico, arredondando ou aproximado

de uma característica do instrumento de medição que auxilia na sua utilização. Exemplos:

1. Resistor padrão de 100 Ω. 2. Recipiente volumétrico de 1 L 3. Concentração da quantidade de

matéria de uma solução de ácido clorídrico, HCl, de 0,1 mol/L

4. 24 oC como temperatura de referência para calibração de um instrumento.

5.3. Condições de Utilização (rated operating conditions)

Condições de uso para as quais as características metrológicas especificadas de um instrumento de medição mantém-se dentro dos limites especificados.

As condições de utilização geralmente especificam faixas ou valores aceitáveis para a quantidade medida e para as grandezas de influência, como valor e freqüência da alimentação, ruídos externos, posição, vibração mecânica, temperatura e pressão ambientes.

5.4. Condições Limites (limiting conditions)

Condições extremas nas quais um instrumento de medição resiste sem danos e degradação das características metrológicas especificadas, as quais são mantidas nas condições de funcionamento em utilizações subsequentes.

As condições limites de armazenagem, transporte e operação podem ser diferentes.

As condições limites podem incluir valores limites para a quantidade medida e para as grandezas de influência.

5.5. Condições de Referência (reference conditions)

Condições de uso prescritas para ensaio de desempenho de um instrumento de medição ou para intercomparação de resultados de medições.

As condições de referência geralmente incluem os valores de referência ou as faixas de referência para as grandezas de influência que afetam o instrumento de medição.

5.6. Constante de um instrumento (instrument constant)

Fator pelo qual a indicação direta de um instrumento de medição deve ser multiplicada para se obter o valor indicado do mensurando ou de uma grandeza utilizada no cálculo do valor do mensurando.

Instrumentos de medição com diversas faixas com uma única escala, têm várias constantes que correspondem, por exemplo, a diferentes posições de um mecanismo seletor.

Quando a constante é igual a 1, ela geralmente não é indicada no instrumento. Quando não se diz qual é a constante, entende-se que ela é igual a 1.

Medidores de vazão possuem uma constante, que relaciona o seu sinal de saída

Page 163: Metrologia 7a

Vocabulário de Metrologia

153

com o valor da vazão medida. Este fator K ou constante deve ser periodicamente calibrada.

5.7. Característica de resposta (response characteristic)

Relação entre a saída (resposta) e a entrada (estímulo) de um instrumento, sob condições definidas. Exemplos: a força eletromotriz de saída do termopar como função da entrada de temperatura.

A relação pode ser expressa por uma equação matemática, tabela numérica ou gráfico.

Quando a saída varia em função do tempo, a forma característica de resposta é a função de transferência da resposta dividida pela da entrada.

5.8. Sensibilidade (sensitibility) Variação da saída (resposta) de um

instrumento de medição dividida pela correspondente variação da entrada (estímulo). A sensibilidade nem sempre é linear e pode depender do valor da entrada.

5.9. Limiar de mobilidade (discrimination, threshold)

Maior variação da entrada (estímulo) que não produz variação detectável na saída (resposta) de um instrumento de medição, sendo a variável no sinal de entrada lenta e uniforme.

O limiar de mobilidade pode depender, por exemplo, do ruído, atrito e também do valor da entrada (estímulo).

5.10. Resolução (resolution) Menor diferença entre indicações de um

dispositivo mostrador que pode ser percebida significativamente.

Para mostrador digital, é a variação na indicação quando o dígito menos significativo (o da extrema direita) varia de um dígito.

5.11. Zona morta (dead zone) Intervalo máximo no qual uma entrada

(estímulo) pode variar em ambos os sentidos, sem produzir variação na saída (resposta) de um instrumento de medição .

A zona morta pode depender da taxa de variação.

A zona morta, algumas vezes, pode ser deliberadamente ampliada, de modo a prevenir variações na saída (resposta) para pequenas variações na entrada (estímulo).

5.12. Estabilidade (stability) Aptidão de um instrumento de medição em

conservar constantes suas características metrológicas ao longo do tempo.

A estabilidade pode ser estabelecida em relação a outra grandeza que não o tempo, mas isto deve ser explicitamente declarado.

A estabilidade pode ser quantificada de vários modos, por exemplo:

1. pelo tempo no qual a característica metrológica varia de um valor determinado ou

2. em termos da variação de uma característica em um determinado período de tempo.

5.13. Discriminação (transparency) Aptidão de um instrumento de medição em

não alterar o valor da quantidade medida.

5.14. Deriva (drift) Variação lenta de uma característica

metrológica de um instrumento de medição. Geralmente a deriva é devida à variação da temperatura ambiente ou do tempo ou de ambos.

5.15. Tempo de resposta Intervalo de tempo entre o instante em que

uma entrada é submetido a uma variação brusca e o instante em que a resposta atinge e permanece dentro de limites especificados em torno do seu valor final estável.

5.16. Exatidão da medição Exatidão é o grau de concordância entre o

resultado de uma medição e um valor verdadeiro do mensurando

1. Exatidão é um conceito qualitativo 2. O termo precisão não deve ser usado

para exatidão. 3. A exatidão está relacionada com os

erros sistemáticos do instrumento. 4. A exatidão é obtida através da

calibração periódica do instrumento.

5.17. Classe de exatidão Classe de instrumentos de medição que

satisfazem a certas exigências metrológicas destinadas a conservar os erros dentro de limites especificados. A classe de exatidão é geralmente indicada por um número ou símbolo adotado por convenção e denominado índice de classe.

Page 164: Metrologia 7a

Vocabulário de Metrologia

154

5. 18. Repetitividade (de resultados de medições)

Repetitividade é o grau de concordância entre os resultados de medições sucessivas do mesmo mensurando feitas sob as mesmas condições de medição A repetitividade representa o grau de dispersão de várias medidas repetidas feitas de um mesmo valor do mensurando.

1. Estas condições são chamadas de condições de repetitividade

2. As condições de repetitividade incluem o mesmo procedimento de medição o mesmo observador o mesmo instrumento de medição,

usado sob as mesmas condições o mesmo local repetições em um curto período de

tempo 3. A repetitividade pode ser expressa

quantitativamente em termos da dispersão característica dos resultados.

4. A repetitividade é a precisão do instrumento.

5. A precisão está relacionada com os erros aleatórios do instrumento.

6. A precisão é mantida através da manutenção programada do instrumento.

5.19. Reprodutibilidade Reprodutibilidade é a proximidade de

consenso entre os resultados de medições sucessivas do mesmo mensurando feitas sob condições diferentes de medição

1. Uma expressão válida da reprodutibilidade requer a especificação das condições variadas.

2. As condições variadas podem incluir: - princípio de medição - método de medição - observador - instrumento de medição - padrão de referencia - local - condições de uso

3. A reprodutibilidade pode ser expressa quantitativamente em termos da dispersão característica dos resultados.

4. Os resultados são aqui entendidos como os resultados corrigidos.

5.20. Erro Um resultado correto da medição não é o

valor do mensurando - isto é, ele está com erro - por causa da medição imperfeita da grandeza realizada devido a variações aleatórias das observações (efeitos aleatórios), determinação

inadequada das correções para os efeitos sistemáticos e o conhecimento incompleto de certos fenômenos físicos (também efeitos sistemáticos). Nem o valor da grandeza realizada nem o valor do mensurando pode ser conhecido exatamente; tudo que pode ser conhecido são seus valores estimados. No exemplo acima da medida da espessura da chapa pode estar com erro, isto é, pode diferir do valor do mensurando (a espessura da chapa), por causa de cada uma das seguintes contribuições para um erro desconhecido para o resultado da medição:

a) pequenas diferenças entre as indicações do micrômetro quando é repetidamente aplicada à mesma grandeza realizada;

b) calibração imperfeita do micrômetro; c) medição imperfeita da temperatura e da

pressão aplicadas; d) conhecimento incompleto dos efeitos da

temperatura, pressão barométrica e umidade na peça ou no micrômetro ou em ambos.

O resultado de uma medição menos um valor verdadeiro da grandeza medida (não precisamente quantificável por que o valor verdadeiro cai em algum ponto desconhecido dentro da faixa de incerteza).

5.22. Limite de Erro Admissível Valor extremo de um erro admissível por

especificação, norma, legislação, para um dado instrumento de medição.

5.23. Erro de um instrumento de medição

Indicação de um instrumento de medição menos um valor verdadeiro da grandeza de entrada correspondente. Como, na prática, não existe um valor verdadeiro, usa-se o valor verdadeiro convencional, dado por um padrão confiável. Para uma medida materializada, a indicação é o valor atribuído a ela e o valor verdadeiro convencional é o fornecido por padrão rastreado.

5.24. Erro no ponto de controle Erro de um instrumento de medição em uma

indicaçãoo especificada ou em um valor especificado do mensurando, escolhido para controle do instrumento.

5.25. Erro no zero (zero error) Erro no ponto de controle de um

instrumento de medição para o valor zero do mensurando. Um instrumento apresenta erro de zero, quando sua saída for diferente de zero

Page 165: Metrologia 7a

Vocabulário de Metrologia

155

para entrada igual a zero. Diz se que um instrumento apresenta erro de zero quando a curva real de calibração que deveria passar pela origem, não passa.

5.26. Erro no span (span error) Um instrumento apresenta erro de zero,

quando a inclinação de sua curva de calibração for diferente da inclinação nominal. Diz se que um instrumento apresenta erro de span quando a curva real de calibração tem inclinação diferente da ideal.

5.27. Erro intrínseco (intrinsic error) Erro de um instrumento de medição,

determinado sob condições de referência.

5.28. Tendência (bias) Erro sistemático da indicação de um

instrumento de medição. A tendência de um instrumento de medição é normalmente estimada pela média dos erros de indicação de um número apropriado de medições repetidas.

5.29. Isenção de Tendência (freedom from bias)

Aptidão de um instrumento de medição dar indicações isentas de erro sistemático.

5.30. Erro fiducial (fiducial error) Erro de um instrumento de medição dividido

por um valor especificado para o instrumento. O valor especificado é geralmente chamado de valor fiducial e pode ser, por exemplo, a amplitude da faixa nominal ou o limite superior da faixa nominal do instrumento de medição.

Page 166: Metrologia 7a

Vocabulário de Metrologia

156

6. Conceitos estatísticos

As definições dos termos básicos estatísticos dados aqui foram tiradas da ISO 3534-1 [7]. Esta norma deve ser a primeira fonte consultada para as definições de termos não incluídos aqui.

6.1. Estatística Uma função das variáveis aleatórias da

amostra. Uma estatística, como uma função de

variáveis aleatórias, é também uma variável aleatória e como tal, assume diferentes valores para a amostra. O valor da estatística obtida usando-se os valores observados nesta função pode ser usado em um teste estatístico ou com uma estimativa de um parâmetro da população, tal como uma média ou um desvio padrão.

6.2. Probabilidade Um número real na escala 0 a 1 atribuído a

um evento aleatório. A probabilidade pode se referir a uma

freqüência relativa de ocorrência em longo período de tempo ou a um grau de confiança que um evento possa ocorrer. Para um alto grau de confiança, a probabilidade é próxima de 1.

6.3. Variável aleatória Uma variável que pode tomar qualquer valor

de um específico conjunto de valores e com a qual é associada uma distribuição de probabilidade.

1. Uma variável aleatória que pode tomar somente valores isolados é chamada de discreta. Uma variável aleatória que pode tomar qualquer valor dentro de um intervalo finito ou infinito é chamada de contínua.

2. A probabilidade de um evento A é denotada por Pr(A) ou P(A).

Variável aleatória centrada Uma variável aleatória cuja expectativa é

igual a zero. Se a variável aleatória X tem uma

expectativa igual a μ, a variável aleatória centrada correspondente é (X - μ).

6.5. Função distribuição Uma função dando, para cada valor x, a

probabilidade que a variável aleatória X seja menor ou igual a x:

F(x) = Pr(X ≤ x)

Distribuição de probabilidade (de uma variável aleatória

Uma função dando a probabilidade que uma variável aleatória tome qualquer valor dado ou pertença a um dado conjunto de valores.

A probabilidade de um conjunto inteiro de valores da variável aleatória é igual a 1.

Função densidade de probabilidade (para uma variável aleatória contínua)

A derivada (quando ela existir) da função distribuição:

f(x) = dF(x)/dx

f(x)dx é o elemento probabilidade:

f(x)dx = Pr(x < X < x +dx)

Função massa da probabilidade Uma função dando, para cada valor xi de

uma variável aleatória discreta, a probabilidade pi que a variável aleatória X seja igual a xi:

pi = Pr(X = xi)

Desvio padrão (de uma variável aleatória ou de uma distribuição de probabilidade

A raiz quadrada positiva da variância:

)X(V=σ

Momento central de ordem 1 Em uma distribuição de uma única

característica, a média aritmética da qa potência da diferença entre os valores observados e sua média x é:

∑=

−n

1i

qi )xx(

n1

O momento central de ordem 1 é igual a zero.

Momento central de ordem q Em uma distribuição com uma variável, a

expectativa da qa potência da variável aleatória centrada (X - μ):

E[(X - μ)q] O momento central de ordem 1 é a variância

da variável aleatória X.

Page 167: Metrologia 7a

Vocabulário de Metrologia

157

Distribuição normal; distribuição de Laplace-Gauss

A distribuição de probabilidade de uma variável aleatória continua X, a função de densidade de probabilidade de que é

f x ex

( ) =−

−⎛⎝⎜

⎞⎠⎟1

2

12

2

σ π

μσ

para -∞ < x < +∞

μ é a expectativa e σ é o desvio padrão da distribuição normal.

Distribuição t; (Student) A distribuição t ou distribuição de Student é

a distribuição de probabilidade de uma variável aleatória continua t cuja função densidade de probabilidade é

p t t( , )νπν

ν

ν ν

ν

=

+⎡⎣⎢

⎤⎦⎥

⎡⎣⎢

⎤⎦⎥

+⎡

⎣⎢

⎦⎥

− +⎛⎝⎜

⎞⎠⎟1

12

2

12

12

Γ

Γ

onde Γ é a função gama e ν > 0. A expectativa da distribuição t é zero e sua variância é ν/(n - 2) para ν > 2. Quando n → ∞, a distribuição t se aproxima da distribuição normal com μ = 0 e σ=1.

A distribuição probabilidade da variável ( ) / ( )z s zz− μ é a distribuição t se a variável aleatória z é normalmente distribuída com expectativa μz, onde z é a média aritmética de n observações independentes zi de z, s(zi) é o desvio padrão experimental de n observações e n/)z(s)z(s i= é o desvio padrão

experimental da média z com n = ν - 1 graus de liberdade.

6.6. Parâmetro Uma grandeza usada para descrever a

distribuição de probabilidade de uma variável aleatória.

6.7. Característica Uma propriedade que ajuda a identificar ou

diferenciar entre itens de uma dada população. A característica pode ser quantitativa (para

variáveis) ou qualitativa (para atributos)

6.8. População A totalidade de itens sob consideração.

No caso de uma variável aleatória, a distribuição de probabilidade é considerada para definir a população desta variável.

6.9. Freqüência O número de ocorrências de um dado tipo

de evento ou o número de observações caindo em uma classe específica.

Distribuição de freqüência A relação empírica entre os valores de uma

característica e suas freqüências ou suas freqüências relativas.

A distribuição pode ser graficamente apresentada como um histograma, gráfico de barra, polígono de freqüência cumulativa ou como uma tabela de duas vias.

6.10. Expectativa (de uma variável aleatória ou de uma distribuição de probabilidade; valor esperado; média

1. Para uma variável aleatória discreta X tomando os valores xi dentro das probabilidades pi, a expectativa, se existir, é:

μ = = ∑E X p xi i( )

a soma sendo estendida sobre todos os valores de xi, que pode ser tomado por X.

2. Para uma variável aleatória contínua X tendo a função densidade de probabilidade f(x), a expectativa, se existir, é

μ = = ∫E X xf x dx( ) ( )

a integral sendo estendida sobre todo o intervalo de variação de X.

6.11. Desvio padrão O desvio padrão é a raiz quadrada positiva

da variância. Uma vez que uma incerteza padrão do Tipo

A é obtida tomando a raiz quadrada da variância estatisticamente calculada, é geralmente mais conveniente quando determinando uma incerteza padrão do Tipo B para avaliar um desvio padrão não estatístico equivalente primeiro e depois obter a variância equivalente elevando ao quadrado o desvio padrão.

O desvio padrão da amostra é um estimador não polarizado do desvio padrão da população.

Desvio padrão experimental

Page 168: Metrologia 7a

Vocabulário de Metrologia

158

Desvio padrão para uma série de n medições do mesmo mensurando é a grandeza s(qk) caracterizando a dispersão dos resultados e dado pela fórmula:

s qq q

nk

kk

n

( )( )

=−

−=

∑ 2

1

1

qk sendo o resultado da ka medição e q sendo a média aritmética dos n resultados considerados

1. Considerando a série de n valores como uma amostra de uma distribuição, q é uma estimativa não polarizada da média μq e s2(qk) é uma estimativa não polarizada da variância σ2, desta distribuição.

2. A expressão s q nk( ) / é uma estimativa

do desvio padrão da distribuição de q e chamado de desvio padrão experimental da média.

3. O desvio padrão experimental da média é, às vezes, chamado incorretamente de erro padrão da média.

6.12. Estimativa A operação de atribuir, a partir de

observações em uma amostra, valores numéricos para os parâmetros de uma distribuição escolhida como o modelo estatístico da população da qual a amostra é retirada.

Um resultado desta operação pode ser expresso como um valor único (ponto estimado; ou como um intervalo estimado.

Estimador Uma estatística usada para estimar um

parâmetro da população.

Estimado O valor de um estimador obtido como um

resultado de uma estimativa.

Intervalo estatístico de cobertura Um intervalo para o qual se pode

estabelecer, com um dado nível de confiança, que ele contem no mínimo uma proporção especificada da população.

1. Quando dois limites são definidos por estatística, o intervalo tem dois lados. Quando um dos dois limites não é finito ou consiste do limite da variável, o intervalo é de um lado.

2. Também chamado de intervalo de tolerância estatística. Este termo não deve ser usado porque ele pode causar confusão com intervalo de tolerância.

Coeficiente de confiança, nível de confiança A probabilidade que o valor da grandeza

medida caia dentro da faixa cotada de incerteza.

Graus de liberdade Em geral, o número de termos em uma

soma menos o número de limitações nos termos da soma.

Média aritmética A soma dos valores dividida pelo número de

valores. 1. O termo média pode se referir a um

parâmetro da população ou ao resultado de um cálculo dos dados obtidos em uma amostra.

2. A média de uma única amostra aleatória tomada de uma população é um estimador não polarizado da média de sua população. Porém, outros estimadores, tais como média geométrica, média harmônica, mediana ou moda, podem também ser usados.

6.13. Variância Uma medida da dispersão, que é a soma

dos quadrados dos desvios de observações de sua média dividida por um menos o número de observações.

Por exemplo, para n observações x1, x2,..., xn com média

xn

xii

n=

=∑1

1

a variância é

sn

x xii

n2 2

1

11

=−

−=∑( )

1. A variância da amostra é um estimador

não polarizado da variância da população.

2. A variância é n/(n - 1) vezes o momento central de ordem 2.

A variância definida aqui é mais apropriadamente chamada de estimativa da amostra da variância da população. A variância de uma amostra é usualmente definida para ser o momento centro de ordem 2 da amostra.

A variância de uma variável aleatória é a

expectativa de seu desvio quadrático em relação a sua expectativa. Assim, a variância

Page 169: Metrologia 7a

Vocabulário de Metrologia

159

da variável aleatória z com função densidade de probabilidade p(z) é dada por

σ μ2 2( ) ( ) ( )z z p z dzz= −∫

onde μz é a expectativa de z. A variância σ2(z) pode ser estimada por

s zn

z zi ii

n2 2

1

11

( ) ( )=−

−=∑

onde

zn

zii

n=

=∑1

1

e zi são n observações independentes de z. 1. O fator (n -1) na expressão de s2(zi) vem

da correlação entre zi e z e reflete o fato que há somente (n - 1) itens independentes no conjunto {zi - z )

2. Se a expectativa μz de z é conhecida, a variância pode ser estimada por:

s zn

zi ii

n2 2

1

1( ) ( )= −=∑ μ

A variância da média aritmética das

observações, no lugar da variância das observações individuais, é a medida apropriada da incerteza de um resultado da medição. A variância de uma variável z deve ser cuidadosamente distinguida da variância da média z . A variância da média aritmética de uma série de n observações independentes zi de z é dada por

σσ2

2( ) ( )z z

ni=

e é estimada pela variância experimental da média

s z s zn n n

z zii

i

n2

22

1

11

( ) ( )( )

( )= =−

−=∑

Variância (de uma variável aleatória ou de uma distribuição de probabilidade

A expressão do quadrado da variável aleatória centrada

σ2 2= = −V X E X E X( ) {[ ( )] }

6.14. Covariância A covariância de duas variáveis aleatórias é

uma medida de sua dependência mútua. A

covariância de variáveis aleatórias y e z é definida por:

cov(y,z) = cov (z,y) = E{[y-E(y)][z - E(z)]}

que leva a cov(y,z) = cov (z,y) = − −∫∫ ( )( ) ( , )y z p y z dydzy zμ μ

= −∫∫ yzp y z dydz y z( , ) μ μ

onde p(y,z) é a função densidade de probabilidade conjunta de duas variáveis y e z. A covariância cov(y,z)] também denotada por ν(y,z)] pode ser estimada por x(yi,zi) obtido de n pares independentes de observações simultâneas yi e zi de y e z,

s y zn

y y z zi i i ii

n( , ) ( )( )=

−− −

=∑1

1 1

onde

zn

zii

n=

=∑1

1

A covariância estimada de duas médias y e

z é dada por s( y , z ) = s(yi,zi)/n

Matriz de covariância Para uma distribuição de probabilidade

multivariável, a matriz V com elementos iguais às variâncias e covariâncias das variáveis é chamada de matriz covariância. Os elementos diagonais, ν(z,z) = σ2(z) ou s(zi,zi) = s2(zi), são as variâncias e os elementos fora da diagonal, ν(y,z) ou s(yi,zi) são as covariâncias.

6.15. Correlação A relação entre duas ou várias variáveis

aleatórias dentro de uma distribuição de duas ou mais variáveis aleatórias.

Muitas medidas estatísticas de correlação medem somente o grau de relação linear.

Coeficiente de correlação O coeficiente de correlação é uma medida

da dependência mútua relativa de duas variáveis, igual à relação de suas covariâncias para a raiz quadrada positiva do produto de suas variâncias. Assim,

ρ ρν

ν ν

νσ σ

( , ) ( , ) ( , )( , ) ( , )

( , )( ) ( )

y z z y y zy y z z

y zy z

= = =

Page 170: Metrologia 7a

Vocabulário de Metrologia

160

com estimativas

r y z r z y s y zs y y s z z

s y zs y s zi i i i

i i

i i i i

i i

i i( , ) ( , ) ( , )

( , ) ( , )( , )

( ) ( )= = =

O coeficiente de correlação é um número

puro tal que -1 ≤ ρ ≤ +1 ou -1 ≤ r(yi,zi) ≤ +1. Notas

1. Como r e r são números puros na faixa de -1 a +1 inclusive, enquanto as covariâncias são usualmente grandezas com dimensões físicas e tamanhos inconvenientes, os coeficientes de correlação são geralmente mais úteis que as covariâncias.

2. Para distribuições de probabilidade multivariáveis, a matriz de coeficientes de correlação é usualmente dada no lugar da matriz de covariância. Desde que ρ(y,y) = 1 e r(yi,yi) = 1, os elementos da diagonal desta matriz são 1.

3. Se as estimativas de entrada xi são correlatas e se uma variação δi em xi produz uma variação δj em xj, então o coeficiente de correlação associado com xi e xj é estimado aproximadamente por

r x xu xu xi j

i j

j i( , )

( )( )

δ

Esta relação pode servir como base para estimar experimentalmente os coeficientes de correlação. Ela também pode ser usada para calcular a variação aproximada em uma estimativa de entrada devido à variação em outra se o coeficiente de correlação for conhecido.

6.16. Independência Duas variáveis aleatórias são

estatisticamente independentes se sua distribuição de probabilidade conjunta é o produto de suas distribuições de probabilidades individuais.

Se duas variáveis aleatórias são independentes, sua covariância e coeficiente de correlação são zeros, mas o inverso nem sempre é verdade.

6.17. Representação gráfica A Fig. 1. mostra algumas das idéias

discutidas na cláusula 3 deste trabalho e neste Anexo. Ela ilustra por que o foco deste trabalho é a incerteza e não o erro. O erro exato de um resultado de uma medição é, em geral, desconhecido e desconhecível. Tudo que se

pode fazer é estimar os valores das grandezas de entrada, incluindo correções para os efeitos sistemáticos reconhecidos, junto com suas incertezas padrões (desvios padrão estimados), ou de distribuições de probabilidade desconhecidos que são amostradas por meio de observações repetidas ou de distribuições subjetivas ou a priori baseadas em um pool de informação disponível e então calcular o resultado da medição dos valores estimados das grandezas de entrada e a incerteza padrão combinada das incertezas padrão destes valores estimados. Somente se há uma base boa para acreditar que tudo isso possa ser feito corretamente, com nenhum efeito sistemático significativo tendo sido omitido, pode-se assumir que o resultado da medição é uma estimativa confiável do valor do mensurando e que sua incerteza padrão combinada é um medida confiável do erro possível.

1. Na Fig. 1(a) as observações são mostradas como um histograma para fins ilustrativos.

2. A correção para um erro é igual ao negativo da estimativa do erro. Assim, na Fig. 1 e na Fig. 2, uma seta que ilustra a correção para um erro é igual em comprimento mas aponta no sentido oposto à seta que ilustra o erro e vice-versa. O texto da figura torna claro se uma seta particular ilustra uma correção ou um erro.

Fig. 2 mostra algumas das idéias ilustradas na Fig. 1 mas de modo diferente. Mais ainda, ela também mostra a idéia que pode haver muitos valores do mensurando se a definição do mensurando é incompleta (entrada g da figura). A incerteza resultante deste definição incompleta como medida pela variância é avaliada da medição de realizações múltiplas do mensurando, usando o mesmo método, instrumentos, local.

Na coluna Variância as variâncias são entendida serem as variâncias ui

2(y) definidas na eq. (11); assim elas se somam linearmente, como mostrado.

Apostila\Incerteza CalculoIncerteza1.doc 01 DEZ 97

Page 171: Metrologia 7a

Vocabulário de Metrologia

161

Fig. 1. Ilustração gráfica de valor, erro e incerteza

(a) Conceitos baseados em grandezas observáveis

Média aritmética não corrigida das observações

Média aritmética corrigida das observações

A média aritmética corrigida é o valor estimado do mensurando e o resultado da medição das observações

Incerteza padrão da média não corrigida devida à dispersão das observações Correção de todos efeitos

sistemáticos conhecidos

Incerteza padrão combinada da média corrigida

Inclui a incerteza da média não corrigida devida à dispersão das observações e à incerteza da correção aplicada

(b) Conceitos baseados em grandezas desconhecidas

Distribuição desconhecida (aqui assumida ser normal) da população inteira de observações não corrigidas possíveis

Distribuição desconhecida da população inteira de observações corrigidas possíveis

Erro desconhecido devido a todos efeitos sistemáticos conhecidos

Erro desconhecido na média corrigida devido ao erro aleatório desconhecido na media não corrigida e ao erro desconhecido na correção aplicada

Erro residual desconhecido na média corrigida devido ao efeito sistemático não conhecido.

Média da população desconhecida (expectativa) com desvio padrão desconhecido (indicado pelas linhas verticais)

Erro aleatório desconhecido da média não corrigida das observações

Valor do mensurando não conhecido

Page 172: Metrologia 7a

Vocabulário de Metrologia

162

Grandeza a) Observações não corrigidas

b) Média aritmética não corrigida das observações c) Correção de todos os efeitos sistemáticos conhecidos

d) Resultado da medição

e) Erro residual (desconhecível)

f) Valor do mensurando (desconhecível)

g) Valores da mensurando devidos à definição incompleta (desconhecível)

h) Resultado final da medição

Valor (não em escala)

Variância (não em escala)

Valor crescente

Única medição

Fig. 2. Ilustração gráfica de valores, erro e incerteza

(Não inclui a variância devida à definição incompleta do mensurando)

Page 173: Metrologia 7a

163

B. Normas ISO 9000

1. Introdução As normas de qualidade ISO apareceram de

uma necessidade crescente de os países garantirem, de algum modo, a qualidade de todas as práticas de fabricação e para garantir um certo nível de consistência no valor dos produtos e serviços. Elas foram adotadas no Brasil em 1990, porém apareceram na Europa no início dos anos 1980 e foram adotadas nos EUA em 1987. A Europa adotou estas normas como parte de seu tratado do mercado comum, estabelecendo que sem a certificação ISO não há negócio. Embora isso seja exagerado, os países envolvidos concordam que este conjunto de normas de qualidade são muito importantes no mercado mundial.

As normas ISO 9000 são uma série de cinco normas - ISO 9000, 9001, 9002, 9003 e 9004 - usadas para documentar, implementar e demonstrar um programa de garantia da qualidade da empresa. Elas fazem isto, de um modo muito genérico, apresentando três modelos de sistema de qualidade, resumidos nas normas ISO 9001, 9002 e 9003.

A ISO 9001 é o modelo para projeto e desenvolvimento, produção, instalação e serviço. A ISO 9002 se aplica à produção e instalação e a ISO 9003 se aplica à inspeção e teste finais. O guia para o uso destas normas está incluído na ISO 9000 e o guia para desenvolver o gerenciamento de qualidade e os elementos do sistema estão descritos na ISO 9004. As definições dos conceitos de qualidade estão descritas em outro documento, ISO 8402, Quality Vocabulary.

As normas não fornecem informações específicas de como fabricar ou fabricar um produto com qualidade. As normas não garantem que o fabricante certificado fornece um produto com qualidade. As normas apenas garantem que um fabricante possui um sistema de qualidade no local e que estes procedimentos do programa de qualidade estão documentados e são observados por todos os empregados.

As normas são escritas de um ponto de vista de contrato com duas partes. Elas são projetadas para modelar um sistema de qualidade que irá encorajar um vendedor a

satisfazer as exigências de qualidade que um comprador pode esperar do produto final.

As normas ISO 9000 não foram escritas pela e para a Comunidade Européia, mas por uma organização mundial, com mais de 100 membros, em Genebra, Suíça. O Brasil é representado pela ABNT (Associação Brasileira de Normas Técnicas), uma empresa não governamental responsável pelas normas brasileiras.

Em 1992, aproximadamente 52 países, incluindo o Brasil, já tinham adotado oficialmente as normas ISO 9000. Como as normas são muito genéricas, qualquer país pode fazer pequenas modificações e alterações de linguagem e publicá-las com títulos diferentes.

A certificação ISO 9000 é dolorosa para companhias que não estão preparadas. Pode-se levar mais de um ano para se ficar pronto para uma primeira auditoria. O processo de auditoria em si pode levar de meses até alguns anos. Mesmo uma companhia que já tenha um programa de gerenciamento de qualidade pode ter muito trabalho para ficar de conformidade com as exigências do certificador ISO. As normas não são específicas, mas simplesmente exigem que "todos os instrumentos sejam calibrados corretamente" e que seja "escrito um manual de qualidade".

2. Aspectos Legais A norma ISO 9000 é voluntária, porém se

torna compulsória para muitos fabricantes e fornecedores das principais firmas internacionais, especialmente em eletrônica, computadores, aeroespacial, transporte e nuclear. As industriais que já possuem suas próprias normas rigorosas, como farmacêutica e de alimentos, também adotam a ISO 9000 como norma adicional.

A ISO 9000 é aceita por todos os órgãos nacionais de normas. Em algumas situações, ela substitui outras normas nacionais. No Brasil, a série de normas foi traduzida e adaptada pela ABNT, assumindo a numeração NB 900X - ISO 900X (X variando de 0 a 4) e registrada no INMETRO como NBR 1900X. Nos EUA, as normas ISO são distribuídas através da ANSI e pela American Society for

Page 174: Metrologia 7a

Normas ISO 9000

164

Quality Control (ASQC) e os documentos são ANSI/ASQC Q90 a Q94.

Ela é um mecanismo pronto para incorporar e controlar os regulamentos compulsórios. A ISO 9000 é uma norma para um sistema de gerenciamento integrado da qualidade no ambiente industrial.

A conformidade com a norma ISO 9000 pode:

1. reduzir desperdícios, 2. diminuir tempo de paralisação 3. eliminar a ineficiência da mão de obra 4. aumentar a produtividade.

A norma se envolve no projeto, desenvolvimento, produção, instalação, inspeção, ensaios finais e assistência técnica pós venda. Ela possui implicação entre fornecedor e cliente.

A norma ISO 9000 relaciona os cinco grupos legais de interesse:

1. cliente 2. proprietário 3. fornecedor 4. empregador 5. sociedade Ela menciona explicitamente a saúde a

segurança no local de trabalho, proteção do meio ambiente, conservação de energia e dos recursos naturais. Também se dedica a discussões de bom senso a respeito da qualidade. Ela capacita os usuários com maior consistência, clareza e compreensão.

A norma pode não transformar todo o processo industrial em algo altamente produtivo, mas eliminará muitos erros e confusões nas comunicações e fornecerá um sistema pratico de controle. Por tudo isso, hoje há um crescimento epidêmico da ISO 9000 no Brasil e no mundo.

3. Histórico A norma ISO 9000 foi publicada em 1987

pela ISO (International Organization for Standartization - Organização Internacional de Normalização). Ela se baseou principalmente na norma inglesa BS 7750.

A norma relaciona e trata de: 1. normas do produto 2. calibração e medição 3. sistemas de gerenciamento da qualidade. A maior parte dos produtos utilizados na

vida cotidiana apresenta normas. A maioria das atividades humanas utiliza

medições, que precisam ser aceitas. Estas medições devem estar monitoradas pelos órgãos nacionais de calibração e medição.

A calibração e a medição dentro do processo industrial constituem parte integrante da norma. O treinamento de todo o pessoal envolvido é exigido pela norma.

Qualidade é adequação ao uso. É a conformidade às exigências e especificações. É o produto projetado e fabricado para executar apropriadamente a função prevista.

O gerenciamento da qualidade envolve: 1. definição dos objetivos, feita através de

procedimentos detalhados, atribuídos a cada etapa, desde a compra dos componentes até a expedição do produto acabado.

2. normas, atribuídas a componentes, fornecedores, fabricação e conformidade com especificações dos produtos.

3. sistema. A definição dos objetivos e os procedimentos não são suficientes. É necessário um sistema de medição para o suprimento, materiais recebidos, desempenho no processo, inspeção final e expedição. Também é necessário um sistema de testes e aferições dos equipamentos de ensaio. Deve-se fazer certo desde a primeira vez.

Deve-se prevenir em vez de acompanhar e corrigir. O sistema satisfatório opera virtualmente sem inspeção final e sem departamento de controle da qualidade. O controle é preditivo antecipatório (feedforward) e não a realimentação negativa (feedback)

A demonstração da norma ISO 9000 é aberta, transparente. É uma atitude, um estilo de vida. Torna acessível o chão de fábrica, expõe cada setor, mostra a relação entre os membros da equipe, mostrando ao cliente uma organização aberta.

4. Normas ISO Há cinco normas internacionais

relacionadas com a garantia da qualidade, conhecidas como ISO 9000.

4.1. ISO 9000 ISO 9000 - Gerenciamento da Qualidade e

Normas de Garantia da Qualidade (1987) - Diretrizes para Seleção e Uso

ISO 9000-1 - Projeto do Comitê (rev. 1992).

Projeto funcional planejado para 1996 (1992) ISO 9000-2 - Diretrizes Genéricas para a

Aplicação da ISO 9001, ISO 9002 e ISO 9003 - Projeto da norma ISO/DIS 9000-2 (1992)

ISO 9000-3 - Diretrizes para Aplicação da

ISO 9001 em Desenvolvimento, Suprimento e Manutenção do Software - 1991 como ISO 9000-3.

ISO 9000-4 - Aplicação de Gerenciamento

de Confiança - 1992 (IEC 300-1).

Page 175: Metrologia 7a

Normas ISO 9000

165

4.2. ISO 9001 ISO 9001 - Sistemas de Qualidade - Modelo

de Garantia da Qualidade no Projeto, Desenvolvimento, Produção, Instalação e Assistência Técnica - 1987, Rev. JUL 1994, Projeto funcional para 1996.

A ISO 9001 destina-se a empresas que precisam assegurar a seus clientes conformidade às exigências especificadas é atendida por todo ciclo, desde o projeto até a assistência técnica pós venda. É a norma mais abrangente e completa pois trata do projeto, desenvolvimento, produção, instalação e assistência técnica.

A norma estabelece a noção de revisão do contrato, com definição e documentação do contrato, resolução de diferenças da proposta e avaliação da capacidade do fornecedor de atender as exigências contratuais.

No controle do projeto, envolve o planejamento, atribuição de atividades, organização de interfaces, entradas e saídas e verificação do projeto. Inclui alterações no projeto, aprovação e distribuição do documento, controlando as alterações no documento.

O restante da norma é rotineiro: inclui compra, identificação e rastreabilidade do produto, controle da produção, inspeção e ensaio. A inspeção, medição e calibração tanto do ensaio como do próprio equipamento de medição estão incluídas, pois isso constitui controle de produtos não-conformes. Manuseio, armazenamento, empacotamento e expedição também são tratados, pois são registros da qualidade, auditoria e treinamento.

4.3. ISO 9002 ISO 9002 - Sistemas de Qualidade - Modelo

de Garantia da Qualidade na Produção e Instalação - 1987, Rev. 1992, Projeto funcional para 1996.

A ISO 9002 demonstra a capacidade do fornecedor na produção e instalação. É menos rígida que a 9001. É a mais comum para fabricantes.

4.4. ISO 9003 ISO 9003 - Sistemas de Qualidade - Modelo

de Garantia da Qualidade em Inspeção e Ensaio Finais - 1987, Rev. 1992, Projeto funcional para 1996.

A ISO 9003 demonstra a capacidade de inspeção e ensaio de produtos. Quase metade dos elementos da ISO 9004 é exigida neste caso. Ela inclui controle de documentação, identificação do produto e marcação, controle de produtos reprovados nos ensaios

específicos, sistema de manuseio e armazenamento, controle de equipamento de medição e ensaio, técnicas estatísticas e treinamento.

4.5. ISO 9004 ISO 9004 - Gerenciamento da Qualidade e

Elementos do Sistema da Qualidade - Diretrizes - 1987.

A ISO 9004 trata de todas as formas de serviços, inclusive de fabricação e fornecimento de produtos.

ISO 9004-1 - Gerenciamento da Qualidade

e Elementos do Sistema da Qualidade - Diretrizes - Rev. 1992, Projeto funcional para 1996.

ISO 9004-2 - Gerenciamento da Qualidade

e Elementos do Sistema da Qualidade - Diretrizes para Serviços - 1991.

ISO 9004-3 - Gerenciamento da Qualidade e Elementos do Sistema da Qualidade - Diretrizes para Materiais Processados - Projeto da norma ISO/DIS 9004-3 (1992)

ISO 9004-4 - Gerenciamento da Qualidade

e Elementos do Sistema da Qualidade - Diretrizes para Aperfeiçoamento da Qualidade - Projeto da norma ISO/DIS 9004-4 (1992)

ISO 9004-5 - Gerenciamento da Qualidade

e Elementos do Sistema da Qualidade - Diretrizes para Planos de Qualidade - Projeto do comitê ISO/DIS 9004-5 (1991)

ISO 9004-7 - Gerenciamento da Qualidade

e Elementos do Sistema da Qualidade - Diretrizes para Gerenciamento da Configuração - Projeto do comitê ISO/DIS 9004-7 (1992)

4.6. Outras normas ISO ISO 8042 (1986), revista em 1992 -

Vocabulário do Gerenciamento da Qualidade e Garantia da Qualidade.

ISO 10011-1 - Diretrizes para Auditoria dos

Sistemas da Qualidade - Auditoria (1990) ISO 10011-2 - Diretrizes para Auditoria dos

Sistemas da Qualidade - Critérios de Qualificação para Auditores do Sistema da Qualidade (1991)

ISO 10011-3 - Diretrizes para Auditoria dos

Sistemas da Qualidade - Gerenciamento dos Programas de Auditoria (1991)

Page 176: Metrologia 7a

Normas ISO 9000

166

ISO 10012-1 - Requisitos de Garantia da Qualidade para Equipamento de Medição - Sistema de Confirmação Metrológico para Equipamento de Medição (1992)

ISO 10012-2 - Requisitos de Garantia da

Qualidade para Equipamento de Medição - Controle do Processo de Medição (Projeto funcional, data imprevista)

ISO 10013 - Diretrizes para

Desenvolvimento de Manuais da Qualidade - Projeto do comitê ISO/CD 10013 (1992)

ISO XXXXX - Economia em Qualidade -

Projeto funcional, data e número ainda desconhecidos.

5. Filosofia da Norma A filosofia da norma não é ensaiar com o

propósito de encontrar falhas e sim ter o produto adequado na primeira vez e usar a inspeção e o ensaio para garantir sua conformidade. O princípio é prevenção e não deteção.

A ISO 9000 exige a verificação completa do produto para acrescentar às inspeciones e aos ensaios durante a produção e recomenda:

1. a verificação total de cada produto proveniente da produção, incluindo nova verificação na ordem de compra ou amostragem do lote e amostragem contínua,

2. auditoria das unidades representativas da amostra.

5.1. Controle e manutenção do equipamento

Antes da ISO 9000 havia maior consideração quanto ao controle da produção e da engenharia de manutenção. Na década de 1980, a manutenção foi identificada como fator secundário apenas quanto à eficácia que produziria uma economia considerável, se controlada.

Com relação à norma ISO 9000, é impossível operar uma fabrica dentro de um nível satisfatório de gerenciamento da qualidade sem um programa de manutenção preventiva. Porém, além da manutenção, o equipamento deve ser verificado quanto a tendências e precisão, de modo regular e recalibrado sempre que necessário.

Na revisão de 1994, a ISO 9001 exige a manutenção adequada de equipamentos para assegurar a continuidade da capabilidade do processo (art. 4.9 – g)

5.2. Controle do equipamento de medição e ensaio

Não basta testar a precisão de um medidor; é necessário um sistema para controlar a exatidão dele quanto a medição. Isto implica em laboratórios de ensaio e calibração e centros nacionais de calibração, envolvendo toda espécie de medição, química, elétrica, eletrônica, física e pneumática. Uma companhia de grande porte deve ter um laboratório interno próprio de calibração e ensaio, porém, deverá rastrear seus equipamentos contra um centro nacional.

A norma exige: 1. especificação e aquisição adequadas:

amplitude, tendências, precisão, robustez e durabilidade

2. calibração inicial antes do uso 3. solicitação periódica para calibração 4. evidencia documentaria dos itens

anteriores 5. rastreabilidade quanto às normas de

referência 6. ação corretiva, quando necessário. O artigo seminal da norma ISO 9001 é o

4.11. Controle de equipamentos de inspeção, medição e ensaios., com dois sub itens:

1. Generalidades 2. Procedimento de controle

5.3. Calibração do equipamento Todo equipamento usado para medir

qualquer parâmetro, que se estiver impreciso pode afetar criticamente a qualidade, deve ser incluído no sistema de calibração. Deve existir um Procedimento de Calibração, que inclua a lista de equipamentos que requerem calibração e qual a frequência de calibração exigida.

Deve ser feito um Cronograma de Calibração. Todo equipamento pertencente ao sistema de calibração deve ter uma etiqueta afixada com detalhes sobre a próxima data de calibração.

Toda calibração segue uma norma nacional. Quando o equipamento estiver fora da calibração, será removido imediatamente e levado para o Gerente da Qualidade. Se possível, o equipamento deve ser substituído e enviado para recalibração. Deve haver um Procedimento de ação corretiva, com instruções.

O cronograma deve ser cumprido. Para cada item do sistema de calibração, há um arquivo com detalhes dos resultados de todas as calibrações.

Todos os operadores dos equipamentos de inspeção e ensaios são responsáveis para

Page 177: Metrologia 7a

Normas ISO 9000

167

garantir que o equipamento esteja aferido, verificando as etiquetas.

Todo item do equipamento de medição e ensaio deve ter um número de inventário, que é atribuído no recebimento.

Deve-se garantir que todo equipamento usado com propósitos de medição seja adequado à sua aplicação.

Os itens de equipamento de medição e ensaio classificados como inativos ou usados como referência e que não exijam calibração devem ser identificados como tal, através de uma etiqueta de Calibração Não Exigida.

Deve-se garantir que todos os fornecedores ou subcontratados utilizados no projeto e fabricação do dispositivo tenham um sistema de calibração satisfatório, através de auditorias de fornecedores.

6. Equipamento de Inspeção, Medição e Teste

A cláusula 4.11 da Norma ISO 9000 apresenta de controle de equipamentos de inspeção, medição e ensaios. Ela se aplica a equipamentos usados na satisfação das exigências das inspeções de recebimento, processo e final e teste. É útil enfocar este elemento da perspectiva de que cada sistema de medição é um processo envolvendo materiais, equipamentos, procedimentos, pessoas e condições ambientes.

O fornecedor deve estabelecer e manter

procedimentos documentados para controlar, calibrar e manter os equipamentos de inspeção, medição e ensaios (incluindo software de ensaio) utilizados pelo fornecedor para demonstrar a conformidade do produto com os requisitos especificados. Os equipamentos de inspeção, medição e ensaios devem ser utilizados de tal forma que assegurem que a incerteza das medições seja conhecida e consistente com a capacidade de medição requerida.

Deve-se manter um controle suficiente

sobre todos os sistemas de controle usados no desenvolvimento, fabricação, instalação e serviço de um produto para fornecer confiança em qualquer decisão ou ação baseada nos dados de medição. O controle deve ser exercido sobre indicadores locais, instrumentos, sensores, equipamento de teste e programas de computador. Além disso, a instrumentação de processo que pode afetar as características especificadas de um produto ou serviço deve ser controlada convenientemente.

Para os sistemas de medição de produto e serviço, os métodos estatísticos são

ferramentas valiosas para conseguir e demonstra conformidade com as especificações. Em particular, os métodos estatísticos são ferramentas preferidas no preenchimento da exigência global que "equipamento deve ser usado de modo que garanta que a incerteza da medição seja conhecida e seja consistente com a capacidade de medição requerida". Estes métodos podem também ser usados para monitorar e manter sistemas críticos de medições em um estado de controle estatístico.

O fornecedor irá a) determinar as medições a serem feitas e

a exatidão requerida e selecionar os equipamentos apropriados de inspeção, medição e ensaios com exatidão e precisão necessárias;

O fornecedor precisa identificar todas as

medições necessárias para demonstrar que o produto está de conformidade com as necessidades. Isto inclui as medições do produto comprado, medições de controle de processo e medições do produto acabado ou serviço. Em termos gerais, sempre que o instrumento de inspeção, medição e teste fornece dados requeridos pelo sistema de qualidade, então o equipamento deve ser identificado, controlador, calibração e mantido de acordo com as especificações da cláusula 4.11.

O equipamento referido aqui é restrito ao usado para controlar e verificar a qualidade do produto. A instrumentação da planta e os equipamentos de testes fornecidos para a segurança, controle ambiental, conservação de energia ou material, podem permanecer fora do sistema de qualidade. Porém, inclua todos os equipamentos críticos de inspeção, teste ou medição no sistema de garantia da qualidade para medições, independente do objetivo.

Para cada equipamento de medição e teste deve ser especificado e selecionada aquele que fornece a precisão, exatidão, robustez e confiabilidade nas condições reais de serviço.

O fornecedor irá b) identificar todos dos equipamento de

inspeção, medição e ensaios que possam afetar a qualidade do produto e calibrá-los e ajustá-los a intervalos prescritos ou antes do uso, contra equipamentos certificados tenham uma relação valida conhecida com padrões nacional ou internacionalmente reconhecidos. Quando não existirem tais padrões, a base usada para calibração deve ser documentada;

Page 178: Metrologia 7a

Normas ISO 9000

168

A calibração de equipamento de inspeção, medição e teste deve incluir o seguinte:

1. Verificação inicial da calibração antes de colocar em operação, verificando a conformidade com a exatidão e precisão necessárias. O software e procedimentos de controle de equipamento automático de teste também devem ser verificados.

2. Fazer verificações programadas periódicas dos sistemas de medição. Quando fora do critério de aceitação, fazer recalibração, ajustes ou reparos para restabelecer a exatidão e precisão em operação. A recalibração geralmente deve ser feita somente quando os testes indicarem que o sistema de medição estiver estatisticamente fora de controle. Recalibração excessiva pode aumentar a variabilidade total.

3. Fazer a rastreabilidade dos padrões de calibração até os padrões nacionais e internacionais, se eles existirem. Quando reconhecidamente estes padrões não existirem, usar padrões internos. A preparação e testes destes padrões internos devem estar de acordo com procedimentos documentados e aprovados.

Uma orientação nas exigências gerais para garantir a qualidade da calibração pode ser encontrada na norma ANSI/ASQC Standard M1-1987 - Calibration Systems.

A indústria de processo freqüentemente usa materiais de referência internos, juntos com métodos estatísticos para validar o processo completo de medição. O uso de um material de referência certificado para verificar a exatidão (incerteza sistemática) geralmente invalida somente parte de um dado processo de medição.

O fornecedor irá c) definir o processo empregado para a

calibração de equipamentos de inspeção, medição e ensaios, incluindo detalhes como: tipo de equipamento, identificação única, localização, frequência de conferência, método de conferência, critérios de aceitação e a ação a ser tomada quando os resultados forem insatisfatórios;

O fornecedor deve considerar a seguinte

recomendação nos procedimentos de desenvolvimento e documentação:

1. Os procedimentos de calibração devem ser documentados, aprovados, mantidos e controlados como uma parte do sistema de qualidade. Estes procedimentos devem definir o critério de

aceitação ou limites e frequência dos testes.

2. O critério de aceitação deve ser a precisão e exatidão requeridas para o teste mais exigente para que este equipamento é usado.

3. O intervalo de tempo entre as verificações de calibração e manutenção devem ser razoáveis para a necessidade: o fornecedor determinar isto baseado na experiência e conhecimento de como o equipamento é usado. O equipamento e, onde apropriado, os materiais usados no teste devem ser verificados, calibrados e mantidos de acordo com procedimentos escritos.

4. Onde um sistema de medição é determinado estar fora de controle ou fora dos limites de aceitação, fazer a ação corretiva. A revisão dos registros de controle estatístico é geralmente necessária e útil para identificar quando e se ações corretivas são necessárias. Se os registros estatísticos mostram que o processo de medição está fora de controle (i.e., existe uma causa especial), o usuário deve remover a causa antes da recalibração.

O fornecedor irá d) identificar equipamento de inspeção,

medição e ensaios com um indicador adequado, ou registros de identificação aprovados, para mostrar a situação da calibração;

Fabricantes de instrumentos padrão de medição especificam e, geralmente, fornecem certificação da precisão e exatidão de seus equipamentos, quando entregues. Estas especificações ou certificados de capacidade devem ser comparadas com as exigências do processo, contrato, sistema de qualidade e métodos de teste. A verificação da capacidade do dispositivo contra a especificação ou certificado do fabricante é recomendada. Esta informação deve ser incluída na documentação do sistema de qualidade para o equipamento de inspeção, medição e teste.

Na indústria de processo, são comuns equipamentos e procedimentos de medição complexos. O desenvolvimento de sistemas especiais de medição deve incluir determinações da precisão e exatidão. Considerar, inclusive, o laboratório do comprador nos estudos de métodos de testes para produtos acabados. Estes estudos devem ser conduzidos usando procedimentos aceitos, como a norma ASTM 4691-87 Standard Practice for Conducting an Interlaboratory Test

Page 179: Metrologia 7a

Normas ISO 9000

169

Program to Determine the Precision of Test Methods.

A avaliação de qualquer capacidade de sistema de medição deve incluir estudos da variação devido a amostragem. Na indústria petroquímica, a variância devida aos procedimentos de amostragem é geralmente muito significativa. O controle de procedimentos de amostragem é uma parte necessário do controle do sistema de medição.

Onde é usado software de computador, como parte do sistema de medição, é necessário testar o desempenho do software antes dele ser usado para liberar material para uso ou venda.

O fornecedor irá e) manter registros de calibração para os

equipamentos de inspeção, medição e ensaios; f) avaliar e documentar a validade dos

resultados de inspeção e ensaios anteriores quando os equipamentos de inspeção, medição ou ensaios forem encontrados fora de aferição;

Um método muito usado para evidenciar a calibração é a colocação de etiquetas físicas em cada peca do equipamento de inspeção, medição e teste. A etiqueta é marcada com a identificação do dispositivo, o status corrente de sua calibração, a identificação da pessoa que fez a calibração e a próxima data de calibração.

Na indústria petroquímica, onde centenas de dispositivos de medição são usados no processo de produção, alternativas práticas podem ser usadas, como registros baseados em computador com condições de verificar o status da calibração. O usuário deve ser capaz de demonstra que o sistema efetivamente evita o uso de medição de um equipamento critico de inspeção, medição e teste quando sua data de calibração está vencida.

Além do status de calibração, os registros de cada parte do equipamento de inspeção, medição e teste, devem incluir todos os dados da cláusula 4.11 (c).

A manutenção de rotina e a verificação da precisão e exatidão dos sistemas de medição durante a produção devem incluir o arranjo dos dados obtidos usando amostras de referência ou padrão.

Para cada sistema de medição incluído no escopo desta exigência, é necessário identificar o equipamento e materiais usados para fazer as medições. Os materiais particulares (p. ex., soluções analíticas padrão soluções buffer) devem ser identificadas por um número de etiqueta ou de algum outro modo que satisfaça as exigências de

segurança e indique a data de expiração do material.

O fornecedor irá g) assegurar que as condições ambientais

sejam adequadas para calibrações, inspeções, medições e ensaios que estejam sendo executados;

Quando um sistema de medição é

encontrado fora de calibração ou fora do controle estatístico, esta parte do sistema requer uma análise das medições anteriores obtidas com o sistema de medição. Os produtos originados enquanto as medições estavam erradas podem requerer novos testes para verificar a conformidade com as especificações. Os registros devem ser mantidos dos resultados da verificação da medição, incluindo qualquer substituição de medições incorretas nos registros do sistema de qualidade.

O fornecedor irá h) assegurar que o manuseio, preservação

e armazenamento dos equipamento de inspeção, medição e ensaios sejam tais que a exatidão e a adequação ao uso sejam mantidas;

j) proteger as instalações de inspeção, medição e ensaios, incluindo tanto materiais e equipamentos como software para ensaios, contra ajustes que poderiam invalidar as condições de calibração.

Esta seção da Normal contem exigências

para garantir que a capacidade de todo equipamento de inspeção, medição e teste é protegido contra dano ou ajustes errados. Dispositivos apropriados de proteção, blindagens e instruções de trabalho devem ser incorporados ao sistema de qualidade para proteger este equipamento. As condições ambientais apropriadas para o sistema de medição devem ser continuamente mantidas.

Page 180: Metrologia 7a

Normas ISO 9000

170

A situação de inspeção e ensaios do

produto deve ser identificada através de meios adequados, os quais indiquem a conformidade ou não do produto com relação a inspeção e ensaios realizados. A identificada da situação de inspeção e ensaios deve ser mantida como definido no plano de qualidade ou procedimentos documentados, ao longo da produção , instalação e serviços associados do produto, para assegurar que somente produto aprovado pela inspeção e ensaios requeridos ou liberado sob concessão autorizada seja expedido, utilizado ou instalado.

A exigência relacionando o equipamento ou

programa de computador de teste se aplica a tais coisas como:

1. moldes ou tintas usadas para preparar amostras para teste

2. plaquetas padrão de cor 3. amostras de referência usadas para

avaliar aparência, fragrância e outros fatores

4. programa de sistema de teste para análise de espectro

5. equipamento de cromatógrafos a gás Os registros e dados de projeto,

desenvolvimento, controle do sistema de medição devem ser mantidos. O usuário sempre pode requerer e rever estes dados para verificar se os sistemas fornecidos são adequados.

7. Certificação pela ISO 9000

7.1. Projeto

Introdução Atualmente, no Brasil, há uma busca

frenética da certificação pela ISO 9000. Para tal, qualquer firma deve ter um Sistema de Calibração e Calibração dos instrumentos. O ponto de partida da implantação de um Sistema eficiente e eficaz é o treinamento de todo o pessoal envolvido no processo. O pessoal deve ter curso de Metrologia onde sejam mostrados as bases teóricas e os aspectos técnicos para começar a dominar com segurança o sistema e passar a trabalhar de modo sistemático e transparente para implantar o Sistema de Qualidade que seja aceito e certificado conforme as normas ISO 9000.

Somente a perseverança e insistência de um pessoal chave fará o sistema funcionar. O seguimento sistemático e o rastreamento contínuo de todos os passos do processo nas áreas envolvidas, através de auditorias sérias,

deve sustentar o Sistema e lhe dar credibilidade.

Lógica do Sistema Deve-se ter um Diagrama de Fluxo (Flow

Chart) para cada atividade do sistema e para a elaboração dos Procedimentos. Este diagrama deve ser claro, objetivo e eficaz.

Deve-se desenvolver Procedimentos Administrativos, Procedimentos Técnicos para classes de instrumentos e Tabelas Técnicas para os instrumentos específicos. Todos estes procedimentos, mesmo com enfoques diferentes, devem ser consistentes entre si.

Deve-se ter, no mínimo, os seguintes Procedimentos

1. Composição da Malha de Instrumentos, para fins de cálculo de incertezas instaladas,

2. Composição da Malha de Instrumentos, para fins de cronograma de calibração

3. Calibração dos instrumentos componentes da Malha, como sensores, transmissores, conversores, indicadores, registradores, fios de extensão de termopares.

Abrangência O Sistema de Calibração e Ajuste deve

incluir todas as malhas que impactam a qualidade, direta ou indiretamente e que garantam a continuidade operacional da planta. A sistemática deve garantir que qualquer alteração (retirada ou colocação) deva ser feita por consenso entre os responsáveis envolvidos (Operação e Manutenção), a qualquer momento.

Em instrumentação, se medem, monitoram e controlam as variáveis de processo por vários motivos, entre os quais se destacam:

1. qualidade, 2. segurança, 3. custódia, 4. balanço de processo, 5. economia de energia, 6. ecologia e 7. saúde ocupacional Atualmente, como o Programa de

Calibração e Ajuste dos Instrumentos é o que possui o melhor marketing promocional e tem o suporte da alta direção da empresa, todas as áreas tendem a incluir neste programa outros instrumentos que não impactam a qualidade, mas que devem ser periodicamente calibrados e aferidos. Esta filosofia deve ser alterada e paralelo ao programa de Calibração e Ajuste dos Instrumentos da Qualidade, devem ter outros programas, igualmente cumpridos, relacionados com segurança, custódia, balanço, conservação de energia, ecologia e saúde ocupacional.

Page 181: Metrologia 7a

Normas ISO 9000

171

Todo instrumento apresenta incerteza devida à precisão e incerteza devida à exatidão. É necessário haver um programa de manutenção preventiva e corretiva do instrumento para garantir sua precisão e é necessário haver um programa de calibração para garantir sua exatidão. Por isso, o Sistema de Garantia da Qualidade deve contemplar o Sistema de Calibração – Ajuste e um Sistema de Manutenção Preventiva e Corretiva.

A filosofia do Sistema deve considerar apenas as malhas abertas de indicação e registro. Nas malhas de controle, somente o sensor, condicionador de sinal e indicador ou registrador fazem parte do sistema, não entrando o controlador nem o elemento final de controle.

Também faz parte do Sistema e geralmente é esquecido pelo pessoal de Instrumentação, o Sistema de Calibração dos Instrumentos de Laboratório e por isso deve haver comunicação e consenso entre os sistemas da Manutenção e do Laboratório.

Linguagem A linguagem empregada nos procedimentos

deve ser simples e clara, empregando-se termos conhecidos por todos os envolvidos, necessitando de um mínimo de definições adicionais.

Deve haver uma consolidação dos procedimentos e uma padronização de linguagem, pois alguns procedimentos serão usados em mais de uma área (Manutenção e Laboratório).

O início da sabedoria é chamar as coisas pelos seus próprios nomes.

Todos os instrumentos do Sistema devem ser cadastrados, incorporando os símbolos usados nas normas de simbologia de instrumentos e usando os termos consagrados pela Instrumentação.

Dados Técnicos Somente o essencial deve ser escrito nos

procedimentos administrativos, técnicos e relatórios. Qualquer dado técnico só deve ser escrito e constar em um documento se for utilizado pelo usuário.

Deve-se padronizar a linguagem técnica e usar somente termos em português; e.g., usar faixa em vez de range. e largura de faixa em vez de span.

Tabelas Na elaboração de tabelas para registros de

calibração e ajuste, deve-se colocar a unidade da grandeza em um quadro superior, uma única vez e não deve ser repetida em todas os quadros da tabela.

Tolerâncias As tolerâncias ou incertezas devem ser

expressas em 1. unidades de engenharia, preferivelmente 2. na mesma unidade, para que se possa

verificar diretamente a adequação ao uso da malha instalada

3. quando expressa em percentagem, esclarecer se é percentagem do fundo de escala ou do valor medido

4. algarismos significativos consistentes entre si e com a precisão dos instrumentos.

Unidades de engenharia Assim como os procedimentos devem ser

escritos em português gramaticalmente correto, as unidades de engenharia, com nomes e símbolos corretos devem ser as do SI (símbolo de Sistema Internacional de Unidades).

Abreviaturas e símbolos Os nomes e símbolos das unidades estão

claramente definidos no SI e devem ser seguidos. Na documentação, deve-se também padronizar de nomes e de abreviaturas de nomes.

Deve se fazer um procedimento para abreviar os nomes de áreas, equipamentos e instrumentos, pois isso é fundamental para se ter uma manipulação correta dos dados nos programas de computador, definindo a quantidade de letras na abreviatura, uso do ponto e do espaço e colocação de preposição.

Quantidade de documentos Há uma crítica generalizada de que o

Sistema de Calibração e Ajuste envolve muita papelada e que esta papelada é inútil e perda de tempo. É muito difícil mudar a mentalidade de uma pessoa que durante anos fez o seu trabalho sem documentá-lo e sem preencher relatórios e registros. É muito difícil convencer alguém a escrever o que ele faz e ele acreditar que estes registros são úteis para a melhoria de seu trabalho e não é um meio para patrulhar o seu trabalho.

Numa auditoria do sistema de qualidade da ISO 9000, inicialmente o auditor verifica se a documentação trata dos elementos da qualidade. Posteriormente, ele visita os locais, coletando e analisando evidências para verificar se os controles do sistema, descritos na documentação estão sendo implementados e funcionando adequadamente.

Uma planta típica, com algumas dezenas de malhas incluídas no Sistema de Qualidade da ISO 9000 deve ter necessariamente um cadastro de instrumentos, procedimentos administrativos e técnicos, registros de calibração e ajuste. Quando os processos são

Page 182: Metrologia 7a

Normas ISO 9000

172

simples e com muitas malhas iguais repetidas, a quantidade de procedimentos se torna relativamente pequena.

A evidência do cumprimento de um sistema de qualidade é a documentação, que deve ser simples e agradável.

Registre o que realmente é feito e não perca tempo com o que deveria ser feito.

Use sempre os procedimentos existentes, que devem ser simples, resumidos, exatos, completos, compreensíveis e úteis.

Faça sempre como está escrito. Escreva tudo de importante que é feito.

7.2. Implementação

Organização O maior obstáculo à implantação do

Sistema é passar a mensagem da Qualidade a todos os funcionários. O processo exige a participação consciente e voluntária de todos os funcionários simultaneamente, além de um gerenciamento competente e dedicado prioritariamente ao sistema.

Para que o Sistema de Calibração da Qualidade seja implementado com sucesso é necessário:

1. Identificar os instrumentos de processo sobressalentes que devem estar separados dos outros não pertencentes ao Sistema de Qualidade.

2. Identificar e separar os instrumentos sem condição de uso, não calibrado, não pertencente ao Sistema de Qualidade.

3. Armazenar os instrumentos em locais adequados e previstos para tal, cuidando-se da limpeza, ordenação, seleção e separação. Seguir as recomendações do fabricante, quanto à posição e condições ambientais.

4. As atividades de reparo e calibração devem ser demonstravelmente separadas, de modo que o responsável pelo reparo de um instrumento nunca esteja envolvido na subsequente calibração e certificação deste instrumento.

5. Ter disciplina na organização da documentação, separando os registros diferentes e agrupando na mesma pasta os registros do mesmo tipo, sempre em ordem cronológica.

6. Fazer as correções e revisões dos procedimentos administrativos e técnicos, quando necessário e sempre de modo oficial. Atuar para modificar e não modificar sem atuar, fazendo correções a lápis nos procedimentos, de modo informal.

7. Fazer registros de não conformidade devida a instrumentos de processo com defeito.

8. Ter sempre Procedimento Técnico para fazer calibração e manutenção de instrumento específico e não usar apenas o manual do fabricante, que não o substitui totalmente.

9. Controlar uso de instrumento com Restrição de Uso por causa da calibração incompleta devida à falta de padrões secundários adequados.

10. Justificar o estabelecimento da freqüência de calibração de cada instrumento, através de critério técnico confiável e evidente.

11. Usar o instrumento padrão somente com o correspondente Registro de Calibração.

12. Evitar que as não conformidades se repitam contínua e sistematicamente, através de ações corretivas, atuando nas causas e não nos efeitos.

Infra-estrutura Deve-se ter uma Oficina de Manutenção,

cuidando da calibração dos instrumentos de processo e um Laboratório de Metrologia calibrando estes instrumentos de calibração.

Estabelecer uma política clara e definida nos procedimentos para utilizar os instrumentos que atendam as exigências metrológicas, principalmente entre os instrumentos padrão das áreas (padrões terciários) e os instrumentos padrão do Laboratório de Metrologia (padrões secundários).

Estabelecer mecanismos para que a modernização dos instrumentos de controle de processo implique também na modernização consistente dos instrumentos de calibração e ajuste destes instrumentos do processo.

Informatização e instrumentação No Brasil, ainda há poucos computadores

usados como ferramenta de suporte para a manutenção preventiva e corretiva dos instrumentos. Qualquer sistema confiável e eficiente de Calibração deve alterar consistente e dinamicamente os intervalos de calibração e isso só pode ser feito se houver um programa de computador, que seja entendido e aplicado por todos os envolvidos. Para este programa ser futuramente empregado, é necessário que todo o pessoal já tenha familiaridade com a informática. Porém, somente o computador não resolve; é necessário se criar antes uma infra-estrutura organizacional eficiente.

Formação e qualificação do pessoal

Page 183: Metrologia 7a

Normas ISO 9000

173

O investimento nos equipamentos deve ser complementado com o investimento no pessoal. Toda pessoa necessita de treinamento e sempre o faz, por programação ou por acidente. A pessoa bem treinada fica motivada para fazer melhor o seu trabalho e a um menor custo para a empresa.

Para dominar o Sistema de Calibração e Ajuste de Instrumentos, toda pessoa envolvida deve ter conhecimentos sólidos de Instrumentação, Metrologia e Estatística. O treinamento do pessoal é tão importante na qualidade que é mencionado nas cláusulas 4.18 (ISO 9001), 4.17 (ISO 9002) e 4.11 (ISO 9003).

Gerência O gerenciamento do Sistema de Calibração

e Ajuste deve ser bem dominado por todos os supervisores das áreas, que devem ter o total apoio da alta direção.

Este apoio significa 1. quadro de pessoal suficiente, 2. facilidade de obtenção de micro-

computadores modernos, 3. facilidade de compra de equipamentos

de calibração e ajuste adequados, 4. facilidade de se programar e executar

treinamento do pessoal.

Documentação A documentação do sistema deve ser atual,

conservada, divulgada entre todos os envolvidos e bem dominada pela maioria. No sistema de qualidade, é muito útil a troca de experiência entre as áreas, pois se aprende com os erros dos outros. É demorado aprender tudo sozinho. É também fundamental aprender com as experiências bem sucedidas de outras empresas, mesmo de outra atividade totalmente diferente, como Xerox, IBM, Petrobrás, Vale do Rio Doce, Copene, Celpav e CSN.

Faltam encontros internos agendados onde se possa levantar e discutir problemas potenciais, disseminar experiências que deram certo e corrigir rumos.

Catálogos Os catálogos técnicos dos instrumentos são

úteis para se fazer corretamente sua manutenção e calibração. Aliás, um critério para o cadastro e escolha do fabricante de instrumento deve ser a disponibilidade de catálogos claros e úteis. Os catálogos de instrumentos são a fonte de consulta para a determinação das incertezas dos instrumentos e por isso eles devem ter as informações acerca de exatidão e precisão bem explícitas.

Procedimentos

O Sistema de Calibração de uma planta pode envolver dezenas e até centenas de procedimentos administrativos e técnicos.

Toda calibração correta envolve o instrumento a ser calibrado, padrões, operador e um procedimento escrito. O procedimento escrito de calibração é o meio de tirar o máximo do bom equipamento e do operador treinado, definindo a interligação, seqüência de passos da calibração, dados a serem tomados e o grau de conformidade a ser conseguido.

O procedimento deve refletir a maneira pela qual as coisas são realmente feitas. O objetivo de um procedimento é assegurar que uma tarefa seja feita do mesmo modo, chegando-se aos mesmos resultados, feita pela mesma pessoa em tempos diferentes ou feita por pessoas diferentes, simultaneamente. Para tornar a tarefa objetiva, o procedimento deve tirar toda subjetividade e vontade do operador.

O procedimento administrativo (PA) deve indicar quando se deve fazer os ajustes necessários e o procedimento técnico (PR) e o registro (PP) devem indicar especificamente a classe de incerteza dos instrumentos padrão usados, os valores encontrados e os valores limites para se fazer os ajustes de calibração.

Por exemplo, deve haver um Procedimento Administrativo relacionado com a calibração de registradores eletrônicos, um Procedimento Técnico relacionado com determinado registrador eletrônico, com entrada de milivoltagem de termopar e deve haver uma tabela com valores específicos para determinada aplicação de registro de temperatura.

No mínimo, um procedimento administrativo deve ter os seguintes tópicos:

1. política 2. objetivo 3. escopo 4. responsabilidades 5. definições 6. documentos associados 7. diagrama de blocos (flowchart) 8. descrição do diagrama de blocos 9. procedimento 10. distribuição e registros

Registros Nos registros devem ser anotadas as

leituras dos instrumentos e nada mais que as leituras.

No mínimo, um registro de calibração e ajuste deve ter os seguintes campos:

1. identificação do instrumento (serial, tag, fabricante, modelo

2. valores encontrados antes do ajuste 3. valores lidos depois do ajuste 4. valores limites aceitáveis

Page 184: Metrologia 7a

Normas ISO 9000

174

5. instrumentos padrão utilizados com rastreabilidades válidas

6. local de calibração, com condições ambientais estabelecidas

7. critério de aceitação 8. data de calibração - ajuste 9. data da próxima calibração programada 10. nome e assinatura do executante 11. nome e assinatura do responsável pela

aprovação 12. correções devidas à temperatura

diferente da teórica e outros fatores. É comum se encontrar registros sucessivos

com as leituras idênticas e redondinhas (4,00; 6,00; 8,00; 10,00; 12,00; 16,00; 18,00 e 20 mA cc). Isto é estatisticamente impossível de ocorrer. Estas anotações indicam que o instrumentista não leu corretamente as leituras dos instrumentos, mas escreveu os valores nominais esperados ou então usou instrumento com classe de precisão insuficiente. Estes registros não podem ser considerados evidências de calibração. Estes registros são totalmente inúteis e não permitem o Controle Estatístico de Processo que já é recomendado pela norma ISO 9001 (JUL 94) e certamente será obrigatório na próxima revisão.

Os registros preenchidos devem ser aprovados pelo Chefe de Divisão e pelo Supervisor da área. Esta aprovação deve ser séria e feita somente após a leitura atenciosa dos dados registrados.

Deve-se ser íntegro, escrevendo o que se lê e não o que deva dar e nem o que o chefe quer.

Equipamentos e instrumentos

Instalações de Processo A maioria das instalações de medição e

controle de processo está adequada para as necessidades metrológicas do processo. Mesmo uma instrumentação pneumática, com mais de dez anos de uso, pode ser adequada para atender as necessidades metrológicas de um processo pouco exigente.

Oficinas de Manutenção e de Reparo A oficina de Manutenção e Reparo deve ser

reaparelhada para se adequar às exigências do Sistema de Calibração e Ajuste. Deve-se ter um ambiente limpo e agradável de se trabalhar, com locais adequados para se armazenar e separar os instrumentos de processo e de teste.

Laboratório de Metrologia O Laboratório de Metrologia deve ser a

referência metrológica de todas as áreas da empresa (Manutenção, Produção, Laboratório). Com dinheiro suficiente, qualquer pessoa pode

sair por aí e comprar um instrumento de calibração, que sozinho não garante boas calibrações. A chave é um conjunto fixo de procedimentos e a disciplina em sua aplicação. Por isso, o Laboratório de Metrologia deve ser o modelo de disciplina e rigor no cumprimento dos procedimentos escritos. O Laboratório deve produzir uma listagem ou gráfico que mostre as variáveis físicas, como pressão, temperatura, voltagem ou corrente elétrica que podem ser calibradas e a exatidão correspondente.

O Laboratório de Metrologia deve ter instrumentos padrão que sejam mais precisos que os instrumentos calibrados. Nenhuma norma estabelece números obrigatórios de relação entre incerteza do padrão e do instrumento calibrado, pois esta relação depende do risco associado com o processo de medição, que varia para cada processo, por isso sugerindo varias relações. Algumas normas sugerem e justificam determinadas relações (MIL STD 45662 recomenda o mínimo de 4:1, o INMETRO recomenda 3:1), mas são apenas sugestões. Se uma empresa determina que a relação mínima entre as incertezas do instrumento calibrado e do padrão seja de 3:1, todos devem entender e administrar as conseqüências desta relação, principalmente o Laboratório de Metrologia.

Consistentemente, o Laboratório de Metrologia deve ter métodos de calibração mais rigorosos e controlados. O Laboratório de Metrologia deve ter métodos de calibração monitorados por computador, onde seja possível se calibrar muito mais pontos, diminuir a probabilidade de erros, apresentar certificados de calibração com melhor estética e mais compreensíveis ao usuário.

O Laboratório de Metrologia deve ter um ambiente controlado; com a temperatura igual a 23 ± 5 oC, umidade relativa entre 20 a 60%. A pressão atmosférica, gravidade e campos de interferência de rádio frequência (RF) devem ser conhecidos. A temperatura influi em comprimento, área, volume e nos parâmetros elétricos indiretos das substâncias. A umidade altera a isolação de plásticos e placas de circuito impresso e a condução de superfícies. A pressão atmosférica afeta o empuxo e o peso das massas. A calibração de instrumentos de pressão absoluta requer o conhecimento exato da pressão atmosférica. A aceleração da gravidade local deve ser conhecida, quando se tem padrões de pressão a pistão e a peso morto. Embora os instrumentos geralmente não sejam sensíveis à iluminação, os operadores o são.

Estes cuidados e exigências do Laboratório de Metrologia devem ser bem entendidos, pois

Page 185: Metrologia 7a

Normas ISO 9000

175

seu objetivo é calibrar e aferir os instrumentos padrão que calibram os instrumentos de processo. O Laboratório de Metrologia de uma empresa é para atender as exigências do chão de fábrica e não um laboratório científico para enviar foguetes no espaço sideral. As sugestões das normas estabelecem também uma relação máxima entre as incertezas do instrumento calibrado e do padrão, tipicamente em 10:1. Ter padrões acima desta relação é um desperdício de dinheiro e não há nenhuma vantagem prática detectável. Por isso, toda aquisição de padrão deve ser criteriosamente analisada sob o ponto de vista metrológico e econômico.

A empresa deve estabelecer a sua política, definindo o número de degraus da cadeia de rastreabilidade metrológica e deve seguir esta política. A filosofia recomendada para a cadeia metrológica de uma empresa de tamanho médio seria:

1. instrumentos de processo, 2. padrões terciários, mantidos nas oficinas

de área, para calibrar os instrumentos de processo,

3. padrões secundários, mantidos no Laboratório de Metrologia, para calibrar os padrões terciários,

4. os padrões secundários, calibrados fora da empresa

O Laboratório de Metrologia é a interface entre a empresa e os laboratórios externos, preferivelmente os da Rede Brasileira de Calibração. Para ser eficiente, o Laboratório deve

1. Garantir através de pedido bem especificado que todo instrumento enviado para os laboratórios externos seja calibrado e ajustado e não apenas aferido.

2. Exigir que os padrões usados na calibração tenham uma determinada incerteza (sugestão: mínima de 5 vezes). Quando se tem um instrumento calibrado com incerteza igual à do padrão, o instrumento herda a incerteza do padrão e a incerteza da medição com o instrumento calibrado é igual à soma das duas incertezas.

3. Devolver o instrumento e não pagar o serviço quando estas exigências não forem cumpridas.

4. Exigir que o algorítmo de cálculo de incerteza seja definido

5. Solicitar a probabilidade ou o limite de incerteza real (2σ ou 3σ)

O Laboratório de Metrologia deve orientar claramente, de modo didático, o uso de instrumento degradado ou estabelecer

Procedimento para a adequação ao uso deste instrumento.

7.3. Comprovação Metrológica

Introdução Na implantação do Sistema de Calibração e

Ajuste para a certificação da ISO 9000, há as seguintes etapas:

1. o Processo lista as malhas de instrumentos que impactam a qualidade do produto, estabelecendo os limites de incerteza para cada grandeza indicada,

2. a Instrumentação calcula ou mede as incertezas dos instrumentos já instalados, comprados sem nenhuma critério metrológico, há muitos anos atrás,

3. faz-se o consenso, para adequar ao uso os instrumentos instalados, quando algumas tolerâncias requeridas devem ser aumentadas, mantendo-se os instrumentos existentes ou alguns instrumentos são mudados, com incertezas menores, para atender as incertezas requeridas.

Estas tarefas envolvem vários conceitos importantes de Instrumentação, que se não forem bem entendidos e aplicados, dá resultados totalmente errados. Para isso, é necessário entender e usar corretamente

1. O conceito de malha de instrumentos, que tipicamente possui um sensor, um condicionador de sinal e um instrumento de display.

2. O discernimento de detectar os instrumentos que afetam a incerteza da medição em malhas multivariáveis, com vários condicionadores de sinal; e.g., malha de indicação de vazão com compensação de pressão e temperatura.

3. O comportamento do operador na sua tomada de decisão, se usa a indicação do indicador, a indicação do controlador, o registro ou a totalização. Tem-se uma malha com um tacômetro, um conversor, um indicador local, um indicador no painel e um registrador de painel; onde apenas o indicador de painel é usado pelo operador para tomar decisões.

4. O conceito de multiplexação, mesmo quando mecânica, quando se tem vários sensores, vários registradores e um único indicador, podendo ter várias combinações de malhas.

5. O conceito de modularidade aplicado à instrumentação de SDCD e CLP, onde a malha de indicação inclui a interface entrada/saída (I/O) e a indicação do monitor de vídeo (tubo de raio catódico).

Page 186: Metrologia 7a

Normas ISO 9000

176

6. As informações contidas nos catálogos dos fabricantes, onde os dados metrológicos são incompletos, errados por má fé ou por incompetência ou inexistentes,

7. O bom senso para se usar fatores de degradação e drift, devidos ao envelhecimento, influência do meio ambiente agressivo e do padrão de calibração indevido, determinando-se estes fatores através de dados estatísticos e experimentos de laboratório.

Composição das malhas Para fins de qualidade, a malha de

instrumentos inclui apenas o elemento sensor, elemento condicionador de sinal e o instrumento de display (indicador ou registrador). Não é necessário considerar os instrumentos de controle e o elemento final de controle.

O que Sistema cuida é que a indicação esteja dentro dos limites de incerteza estabelecidos pelo processo. Ocorre uma não conformidade quando se pensa que a indicação está correta e se verifica que ela está errada, quando se faz a aferição do instrumento indicador. A partir dessa não conformidade, devem ser tomadas ações corretivas e preventivas, inclusive rastrear o produto, quando isso for previsto por contrato.

Quando há problemas no controlador ou no elemento final de controle, o produto sai fora da especificação e instantaneamente, o operador percebe a não conformidade e, em linha com o processo, atua no processo para levar a indicação para os limites previstos pelo processo.

Cálculos de incertezas das malhas No cálculo das incertezas das malhas do

Sistema de Qualidade, o algoritmo de cálculo típico é aquele onde a incerteza total é a raiz quadrada da somas dos quadrados das incertezas individuais.

Os cálculos das incertezas devem ter a referência bibliográfica (catálogo de fabricante, literatura técnica, registro).

Compatibilidade metrológica A incerteza da malha de instrumentos

instalada deve ser menor que a incerteza requerida pelo processo. Este menor é vago, e por isso deve ser definida uma relação numérica entre estas incertezas (não use adjetivos, use números), consistente com a política metrológica de toda a empresa, pois há implicações nas incertezas dos padrões terciários, secundários e em toda cadeia de rastreabilidade.

Geralmente, as incertezas requeridas pelo processo são arbitrariamente estabelecidas pela Produção ou; quando há critérios, eles não são informados à Instrumentação. Em algumas situações, os valores das incertezas requeridas pelo processo são estabelecidos depois que a Instrumentação calcula os valores das incertezas instaladas.

Há casos em que a incerteza calculada é maior que a requerida pelo processo. Mas, como a empresa já funciona há muitos anos e o seu produto está dentro da especificação nominal, pode-se concluir que

1. a incerteza requerida pelo processo está errada e poderia ser maior ou

2. a malha de instrumentos não impacta a qualidade final do produto.

Calibração por malha Não imagine quando puder calcular e não

calcule quando puder medir. O aceitável é considerar a incerteza medida

do instrumento não-conforme associada com as incertezas máximas dadas pelo catálogo dos fabricantes dos instrumentos. Porém, é preferível medir a incerteza da malha, em vez de calcular a incerteza total a partir das incertezas dos instrumentos componentes. Isto é conseguido facilmente, desde que a empresa faça a calibração por malha e não por instrumento. Além de se ter um tratamento mais realista das não conformidades, tem-se várias outras vantagens, tais como:

1. gasta-se menos tempo na calibração por malha, pois uma malha típica tem três instrumentos,

2. a calibração é mais confiável, pois não se tem o risco de descalibrar o instrumento na retirada, transporte e recolocação dos instrumentos,

3. a calibração é mais exata, pois todos os efeitos da instalação são considerados naturalmente.

4. tem-se a medição e não o cálculo da incerteza, coerente com a recomendação metrológica de não imaginar quando puder calcular e não calcular quando puder medir..

Obviamente, a calibração por malha tem algumas desvantagens, como:

1. necessidade de reescrever os procedimentos orientados para calibração de instrumentos individuais,

2. disponibilidade de padrões que possam ser usados na área industrial,

3. necessidade de medir as condições de calibração (temperatura, umidade, ambiente).

Como conclusão, é vantajoso se fazer a calibração por malha (como regra) e, em caso

Page 187: Metrologia 7a

Normas ISO 9000

177

de não-conformidade, fazer a calibração dos instrumentos individuais (exceção).

Prevendo esta tendência mundial, os fabricantes de instrumentos de teste e calibração desenvolveram vários instrumentos multitarefa para executar calibrações na área industrial (Altek, Beamex, Eutron, Fluke, Hathaway, Rochester, Ronan, Transmation, Unomat).

Revisão 2000 da ISO 9000 As normas ISO 9000 terão uma revisão em

2000. Já há testes de implementação do rascunho (draft) desta revisão, antes da finalização e publicação das normas ISO 9001 e 9004.

Page 188: Metrologia 7a

178

Conclusão final

Mesmo com as dificuldades inerentes à mudança de hábitos e motivação de pessoal, ao ceticismo de uns e à omissão de outros, um Sistema de Calibração e Ajuste dos Instrumentos pode funcionar bem e receber a certificação ISO 9002.

Todo mundo deve ter um treinamento contínuo, para haver um posicionamento mental orientado para a equipe e para elevar o moral e a eficácia do pessoal.

Como recomendações finais, tem-se: 1. programar e executar um treinamento de todo pessoal envolvido no Sistema. 2. estabelecer com critério a lista das malhas que impactam a qualidade e garantem a

continuidade operacional da planta, com as suas respectivas incertezas. 3. fazer criteriosamente os cálculos das incertezas das malhas requeridas pelo

processo, considerando os parâmetros de especificações nominais, drift e influências da instalação,

4. fazer um Manual de Qualidade e escrever um conjunto de documentos, principalmente os procedimentos técnicos e administrativos, adequando os conceitos de instrumentação e uniformizando a terminologia;

5. estabelecer uma política e procedimentos do Laboratório de Metrologia, tornando-o centro de referência de todas as áreas da empresa, estabelecendo a comunicação adequada com a Produção e Laboratório,

6. implantar um sistema adequado de microcomputadores na Oficina de Manutenção, Laboratório de Metrologia e Laboratório Químico-Físico,

7. escolher um programa de gerenciamento do Sistema de Calibração e Aferição que atenda as especificidades da empresa e rode nos computadores acima;

8. adquirir instrumentos de teste e aferição (padrões terciários) em quantidade apropriada e com precisão metrologicamente consistente;

9. implantar um sistema de Controle Estatístico do Processo para os dados dos registros de calibração;

10. estabelecer uma filosofia de calibração do sistema para aferição por malha, como regra e aferição por instrumento, como exceção;

Apostila\Metrologia ApB-ISO9000.doc 26 MAI 97(Substitui 04 JUN 96)

Page 189: Metrologia 7a

179

C. Rede Brasileira de Calibração Laboratório Cidade, UF Telefone Grandezas

ABCP – Associação Brasileira de Cimento Portland São Paulo, SP (011) 268-5111 Dimensão Força

ABSI - Indústria e Comércio Ltda São Paulo, SP (011) 914-8987 Pressão Balitek – Instrumentos e Serviços Ltda São Paulo, SP (011) 215-0088 Dimensão

Pressão Ceman – Central de Manutenção Ltda Camaçari, BA (071) 832-8586 Dimensão

Pressão Cepel - Centro de Pesquisas de Energia Elétrica Rio de

Janeiro, RJ (021) 767-2111 Eletricidade

Tempo Certi - Fundação Centro Regional em Tecnologias Inovadoras

Florianópolis, SC

(0482) 34-3000 Dimensão Força Pressão

Cetec - Fundação Centro Tecnológico de Minas Gerais

Belo Horizonte, MG

(031) 486-1000 Força

Cetemp/Senai RS - Centro Tecnológico de Mecânica de Precisão

Porto Alegre, RS

(051) 592-5618 Dimensão

CMPJ – Centro de Mecânica de Precisão de Joinville

Joinville, SC (047) 432-0133 Dimensão

Copel – Companhia Parananense de Energia Curitiba, PR (041) 366-2020 Eletricidade CSN – Companhia Siderúrgica Nacional Volta

Redonda, RJ (0243) 44-705 Dimensão

CST – Companhia Siderúrgica Tubarão Vitória, ES (027) 348-2162 Eletricidade Pressão Temperatura

CTA - Centro Técnico Aeroespacial São José dos Campos, SP

(012) 340-3355 Dimensão

Dresser Indústria e Comércio Ltda – Divisão de Manômetros Willy

São Paulo, SP

(011) 453-5477 Pressão

Ecil S.A. Piedade, SP (0152) 44-3000 Temperatura Embraco – Empresa Brasileira de Compressores

(047) 441-2686 Dimensão

Fucapi – Fundação Centro de Análise, Pesquisa e Inovação Tecnológica

(092) 237-5858 Dimensão

Furnas Centrais Elétricas SA Furnas, MG (035) 523-1001 Eletricidade Tempo

Ibametro – Instituto Bahiano de Metrologia, Normalização e Qualidade Industrial

Simões Filho, BA

(071) 394-1172 Massa

IEE/USP - Instituto de Eletrotécnica e Energia da Universidade de São Paulo

São Paulo, SP (011) 815-2423 Eletricidade

IFM - Instituto Fluminense de Metrologia SC Ltda

Petrópolis, RJ

(0242) 21-2652 Eletricidade Pressão Temperatura

INPE - Instituo Nacional de Pesquisas Espaciais

São José dos Campos, SP

(012) 325-6274 Eletricidade Tempo

Instituto Presbiteriano Mackenzie São Paulo, SP

(011) 236-8766 Dimensão Força

INT - Instituto Nacional de Tecnologia Rio de Janeiro, RJ

(021) 253-9294 Força

IOPE Instrumentos de Precisão Ltda São Paulo, SP

(011) 265-4577 Temperatura

IPEI - Instituto de Pesquisas e Estudos Industriais

São Bernardo do Campo, SP

(011) 419-0200 Dimensão

Page 190: Metrologia 7a

Rede Brasileira de Calibração

180

IPT - Instituto de Pesquisas Tecnológicas do Estado de São Paulo SA

São Paulo, SP

(011) 268-2211 Dimensão Eletricidade Força Massa Pressão Temperatura

K&L Assistência Técnica em Instrumentos de Medição

(0474) 26-1712 Dimensão

Mitutoyo do Brasil Indústria e Comércio Ltda São Paulo, SP (011) 478-4544 Dimensão Naka Instrumentação Industrial Ltda São Paulo, SP (011) 417-1177 Pressão PUC/RJ - Pontifícia Universidade Católica do Rio de Janeiro

Rio de Janeiro, RJ

(021) 259-5197 Dimensão Força Pressão Temperatura

PUC/RS - Pontifícia Universidade Católica do Rio Grande do Sul

Porto Alegre, RS

(051) 339-1511 Eletricidade Rádio freqüência

Senai/RJ – Cetec de Metal Mecânica Euvaldo Lodi Rio de Janeiro (021) 569-1322 Dimensão Sharp do Brasil S.A. Manaus, AM (092) 614-2533 Dimensão

Tempo Siemens S.A. São Paulo, SP (011) 833-4405 Dimensão

Força Pressão Tempo

Tektronix Indústria e Comércio Ltda São Paulo, SP (011) 3741-8417

Eletricidade Tempo

Tridmensional Leka’s Medições Ltda Rio de Janeiro, RJ

(021) 270-5888 Dimensão

Triel Engenharia Ltda Santos, SP (013) 227-5666 Eletricidade Pressão

Unicamp - Centro de Tecnologia da Universidade Estadual de Campinas

Campinas, SP (0192) 39-1103 Dimensão

Yokogawa Elétrica do Brasil Indústria e Comércio Ltda

São Paulo, SP (011) 548-2666 Eletricidade Tempo

Fonte| CQ Qualidade, Maio 1997, p. 42

Apostila\Metrologia ApD-RedeCalibração.doc 26 MAI 97 (Substitui 11 MAI 96)

Page 191: Metrologia 7a

181

D. Fundamentos da Qualidade Objetivos de Ensino 1. Apresentar a história da qualidade.

2. Conceituar qualidade e listar sua terminologia, características e aspectos. 3. Mostrar as três filosofias básicas de qualidade, segundo Deming, Crosby e Juran

1. História da Qualidade

1.1. Primórdios As técnicas de qualidade são usadas desde

os tempos antigos. Há quatro mil anos atrás, os egípcios mediam as pedras que usavam nas suas pirâmides. Os gregos e romanos mediam os edifícios e aquedutos para garantir que eles estavam de conformidade com as especificações. As estruturas e arquiteturas dos romanos para edifícios, igrejas, pontes, estradas até hoje causam admiração e inspiração.

Durante a Idade Média até os anos 1900, a produção de bens e serviços era confinada a indivíduos isolados ou grupos pequenos de indivíduos. A qualidade era determinada e controlada pelo próprio indivíduo ou pelo grupo. Este período foi chamado de Controle de Qualidade do Trabalhador Os artesões especificavam, mediam, controlavam e garantiam a qualidade das tintas, roupas, tapeçaria, esculturas e arquiteturas. Para garantir a uniformidade, os estudantes e aprendizes cumpriam rigorosos programas de treinamento e acompanhamento dos mestres. O volume da produção era pequeno. O autor do trabalho se orgulhava dele e esta motivação garantia a qualidade.

1.2. Qualidade Moderna Segundo Feingenbaum, a função qualidade

nas organizações modernas, a partir de 1900 evoluiu através dos seguintes estágios:

1. supervisor 2. inspeção 3. controle de qualidade 4. garantia da qualidade 5. gerenciamento da qualidade total

Supervisor Entre 1900 e 1920, tem-se o período

chamado de Controle de Qualidade do Supervisor A Revolução Industrial gerou a produção em massa. O resultado foi o

especialista. O indivíduo não era mais responsável pelo produto inteiro, mas somente de uma porção ou parte do produto. A desvantagem deste enfoque é a perda do senso de acompanhamento e identificação do trabalhador com o seu produto. Nesta configuração apareceu a figura do supervisor, que é responsável pela coordenação das diferentes tarefas e operações. O supervisor que dirigia a operação se tornou o responsável pela qualidade do produto final.

Inspeção A qualidade moderna começou na década

de 1920. O período de 1920 e 1940 foi chamado de Controle de Qualidade por Inspeção. O volume de produção aumentou, com um grande salto. Os produtos e os processos se tornaram mais complicados. Como o número de trabalhadores se reportando ao supervisor se tornou muito grande, ficou impossível o supervisor controlar rigorosamente as operações individuais de cada trabalhador. Os inspetores verificavam a qualidade do produto após determinadas operações e no final. Havia padrões para serem comparados com os produtos. Quando haviam discrepâncias entre o padrão e o item do produto, os itens eram separados. Os itens não-conformes podiam ser retrabalhados e quando isso não fosse possível, rejeitados.

Os primeiros grupos de qualidade eram os departamentos de inspeção. Durante a produção, os inspetores mediam os produtos contra especificações. Os departamentos de inspeção não eram independentes; eles geralmente se reportavam ao departamento de fabricação cujos esforços eles inspecionavam. Isso apresentava um conflito de interesses, pois o departamento de inspeção rejeitava uma batelada de produtos não-conformes e o departamento de fabricação queria aproveitar essa batelada de produtos para venda, independente da qualidade. Havia o conflito entre as mensagens de "produção a qualquer custo" e "qualidade é o mais importante". Neste ambiente, a qualidade do produto melhorava muito lentamente.

Page 192: Metrologia 7a

Fundamentos da Qualidade

182

Durante este período, foram desenvolvidos os fundamentos estatísticos da qualidade e a Bell Telephone Laboratories montou uma equipe de pioneiros do estudo da qualidade, como Walter A. Stewhart (controle estatístico de processo), H. G. Romig e H.F. Dodge (planos de amostragem).

Controle da qualidade No período de 1940 a 1960, a fase da

evolução é chamada de Controle Estatístico da Qualidade. Nesta etapa, os grupos de inspeção evoluíram para os departamentos de Controle da Qualidade (QC). O início da Segunda Guerra Mundial requereu produtos militares sem defeitos. A qualidade do produto era crucial para ganhar a guerra e isso somente seria garantido se o departamento de inspeção pudesse controlar os processos de produção. A inspeção de 100%, geralmente impraticável, foi substituída pelos planos de amostragem, que foram aceitos e estudados. Em 1946, formou-se a American Society for Quality Control (ASQC). Em 1950, foi desenvolvida a série de normas MIL-STD-105, associada à qualidade.

Qualidade, definida como conformidade com a especificação, era controlada durante a produção, em vez de ser inspecionada nos produtos. A responsabilidade pela qualidade foi transferida para um departamento independente (QC), que era agora considerado o guardião da qualidade. O departamento QC era separado da fabricação, para ter autonomia e independência.

Embora as condições fossem idéias para se explorar os benefícios do controle estatístico da qualidade, as indústrias americanas se mostraram preguiçosas e pouco interessadas com estas teorias relacionadas com qualidade. Foi o Japão, totalmente destruído pela guerra, que adotou rigorosamente os planos de controle de qualidade e se submeteu a programas intensivos de treinamento e educação. Foram para o Japão, como consultores e professores, os americanos W. Edwards Deming (1950) e Joseph M. Juran (1954).

Garantia da Qualidade Na década de 1960, o controle da qualidade

evoluiu para Garantia da Qualidade (QA - quality assurance). O departamento de garantia da qualidade assegurava a qualidade do processo e do produto através de auditorias operacionais, treinamentos, análises técnicas. Os consultores de QA atuavam nos departamentos onde realmente estava a responsabilidade pela qualidade. O QA é uma área funcional responsável pela inspeção dos produtos, calibração dos instrumentos, teste dos produtos e inspeção da matéria prima.

Neste período surgiu o conceito de Defeito Zero (ZD - zero defect), que se baseava na obtenção de produtividade através do envolvimento do trabalhador. Esse conceito era adequado para a NASA (National Aeronautics and Space Administration) em lançamento de foguetes e satélites.

No Japão, surgiu o conceito de círculos de controle de qualidade, baseado no estilo participativo do gerenciamento. Este princípio assume que a produtividade irá aumentar através de um moral elevado e motivação, que são obtidos através de consulta e discussão em grupos informais.

Gerenciamento da Qualidade Total Na década de 1970, quando o assunto

qualidade se tornou mais crítico, QA evolui para o Gerenciamento da Qualidade Total (TQM - total quality management) ou o gerenciamento da qualidade em toda a companhia (CWQM - company-wide quality management).Os grupos de qualidade da companhia são menores, com mais autoridade e menor responsabilidade direta pela qualidade. Por exemplo, o grupo de qualidade tem autoridade para impedir a saída de um produto defeituoso da porta da fábrica, enquanto a responsabilidade do controle de qualidade atua no operador do departamento de fabricação.

A qualidade está associada com cada indivíduo. O programa de qualidade total envolve toda a organização, desenvolvendo e implantando uma ética e cultura de qualidade. O foco do programa é toda a companhia, orientado para o usuário e realizado competitivamente.

A qualidade não fica apenas em um departamento. Para fabricar um produto com qualidade ou entregar um serviço com qualidade requer a atenção e envolvimento de todos da organização. É responsabilidade da pessoa que faz diretamente o trabalho, da recepcionista que atende alegremente as pessoas, da telefonista que se comunica com o mundo externo, do gerente que supervisiona os empregados, do instrumentista que mantém os instrumentos em operação, do responsável pela embalagem do produto. Cada elemento da organização, desde o comitê executivo que estabelece a política de qualidade até a recepcionista na portaria da firma, contribui para o êxito ou boicote do esforço da qualidade. O comitê executivo define uma política realística, os gerentes estabelecem objetivos atingíveis, os engenheiros projetam produtos funcionais, confiáveis e atraentes, as recepcionistas são gentis e eficientes e os operadores fabricam um produto sem defeitos.

Page 193: Metrologia 7a

Fundamentos da Qualidade

183

A orientação para o cliente final é essencial, pois suas necessidades mudam e a organização deve detectar essas variações e se adaptar para atendê-las. Adaptar significa projetar produtos estéticos, fabricar produtos sem defeitos, entregar os produtos em tempo e com lucro. Uma organização deve projetar e produzir e entregar o que o cliente quer e não o que a organização pensa que o cliente quer.

2. Conceito de Qualidade A noção de qualidade pode ser dividida em

cinco categorias: 1. transcendental, 2. baseada no produto, 3. baseado no usuário, 4. baseada na fabricação e 5. baseada no valor. Ainda foram identificados oito atributos na

definição da qualidade: 1. desempenho, 2. características, 3. confiabilidade, 4. conformidade, 5. durabilidade, 6. utilidade, 7. estética e 8. percepção da qualidade. O termo qualidade pode ser definido de

vários modos, dependendo do enfoque e perspectiva do usuário. Qualidade é: 1. conformidade com especificações e normas

aplicáveis (Crosby) 2. adequação (fitness) ao uso (Juran) 3. satisfação das vontades, necessidades e

expectativas do comprador a um custo competitivo

4. adequação do produto ou serviço ao seu uso pretendido como requerido pelo usuário.

2.1. Conformidade Toda organização, se lucrativa ou sem fins

lucrativos, de fabricação, serviços, privada ou pública, tem especificações e normas, que são elaboradas por organizações para medir o desempenho e corrigir os desvios dos níveis esperados. Por exemplo, em uma operação de fabricação, as especificações detalham limites dimensionais, atributos físicos de uma característica da qualidade de uma peça. Em uma operação de serviço, as normas estabelecem os métodos aprovados de comportamento ou serviço.

2.2. Adequação ao uso A associação da qualidade com a

adequação ao uso é de Joseph Juran. É uma definição baseada no mercado e no comprador. Um produto ou serviço é adequado para uso se ele satisfaz as necessidades e exigências do comprador.

É possível se ter um produto que esteja de conformidade com o uso em termos de satisfação do comprador mas não se conforme com a especificação. A especificação de acabamento de superfície foi desenvolvida para um produto de consumo. A condição do acabamento da superfície é importante porque ela melhora a aparência do produto e sua facilidade de venda. As especificações foram escritas para todas as superfícies, internas e externas. Porém, se a superfície interna do produto não está de conformidade com a norma e como ela não pode ser vista pelo comprador, ela não influencia negativamente na sua decisão de compra e portanto a não-conformidade é aceita. Assim, um produto com uma imperfeição pode ser adequado ao uso se tal imperfeição não afeta seu desempenho, segurança ou atração para a venda.

2.3. Satisfação do comprador a um preço competitivo

A qualidade do produto ou serviço é a habilidade do produtor ou prestador de serviço satisfazer as necessidades do comprador, ainda sendo capaz de ter lucro. Esta definição envolve os dois lados da questão: o fornecedor e o comprador. O comprador é a razão da existência da organização, mas o fabricante ou o fornecedor do serviço deve ter o seu lucro. Muitos clientes não compram um produto ou serviço, a não ser que ele tenham um preço razoável.

3. Características da Qualidade Pode haver um ou mais elementos para

definir o nível de qualidade de um produto ou serviço. Esses elementos são chamados de características da qualidade. Estas características podem ser agrupadas de vários modos: estrutural, sensorial, tempo e ético.

As características estruturais incluem as grandezas físicas como comprimento, área, volume, massa, peso, resistência, viscosidade, densidade e muitas outras variáveis de processo incluídas na instrumentação e controle do processo. As características sensoriais incluem o gosto de uma comida, cheiro de um perfume, beleza de um modelo. As características que dependem do tempo incluem a garantia, confiabilidade,

Page 194: Metrologia 7a

Fundamentos da Qualidade

184

mantenabilidade. As características éticas incluem honestidade, cortesia, amizade.

As características da qualidade podem ser agrupadas em duas grandes classes: variáveis e atributos.

3.1. Variável Variável é a característica que pode ser

medida e expressa por um valor numérico, unidade e um limite de incerteza. São exemplos de variáveis: 1. o diâmetro de eixo, como 10,0 ±0,1 mm 2. a massa de um corpo, como 8,5 ±0,2 kg 3. a densidade relativa de um fluido em

relação à agua, como 0,8 (adimensional) 4. a resistência elétrica de uma bobina, como

24 Ω. 5. o volume de um frasco, como 1,0 litro.

3.2. Não-conformidade Uma não conformidade é uma característica

de qualidade que não satisfaz a especificação requerida estabelecida. Por exemplo, seja a espessura nominal de uma arruela de 5,0 ±0,2 mm. Uma arruela com espessura de 5,1 mm é conforme e boa; uma arruela com 5,3 mm tem a espessura não-conforme e deve ser retrabalhada para ficar dentro do especificado.

Uma unidade não-conforme é aquela que possui uma ou mais não-conformidades, de modo que a unidade não é capaz de satisfazer a especificação estabelecida e portanto, incapaz de funcionar como previsto. Uma peça com o peso e o comprimento fora das tolerâncias estabelecidas é uma unidade não-conforme e como tal, deve ser retrabalhada ou se isso não for possível, rejeitada e jogada fora.

3.3. Atributo Atributo é uma característica de qualidade

se ela só pode ser classificada como conforme ou não conforme, boa ou ruim, satisfaz ou não satisfaz, de acordo com uma determinada especificação.

O atributo é a característica da qualidade que geralmente não pode ser medida em uma escala numérica. Por exemplo, o cheiro de um perfume, a cor de um tecido são atributos, pois são caracterizados como aceitável ou não-aceitável.

Às vezes, uma variável pode ser considerada como atributo. Por exemplo, o diâmetro de um eixo a ser usado em um conjunto, é rigorosamente uma variável, com uma dimensão, unidade e tolerância. O eixo poderia ser medido por um paquímetro ou micrômetro e o operador iria classificá-lo como

conforme ou não-conforme. Uma alternativa mais rápida, seria comparar o diâmetro do eixo com um padrão ou inserir o eixo em um furo padrão, de modo que ele seria classificado rapidamente como conforme ou não-conforme. A grande vantagem de considerar o indicador bom ou não-bom é a economia de tempo no teste.

3.4. Defeito Defeito está associado com uma

característica de qualidade que não satisfaz a especificação. A gravidade de um ou mais defeito em um produto ou serviço pode determinar se ele é aceitável ou não (defeituoso). O termo moderno para item defeituoso é item não-conforme. A definição do American National Standards Institute (ANSI) e American Society for Quality Control (ASQC) é a seguinte (ANSI/ASQC A3, 1987):

Defeito é um afastamento de uma característica de qualidade de seu nível ou estado pretendido que ocorre com uma gravidade suficiente para fazer o produto ou serviço associado não satisfazer a exigência de uso pretendida, de modo visível

3.5. Padrão e Especificação Como a definição de qualidade envolve a

satisfação do usuário, as necessidades do usuário devem ser documentadas. Uma norma ou especificação se refere ao estabelecimento preciso que formaliza as necessidades do usuário. Eles podem ser referir a produto ou processo ou serviço. Por exemplo, a especificação de uma peça pode incluir o diâmetro interno de 4,0 ±0,1 cm, diâmetro externo de 10,0 ±0,2 cm, comprimento de 12,0 ± 0,3 cm. Isto significa que uma peça aceitável deve satisfazer cada uma das dimensões acima, dentro das tolerâncias estabelecidas.

Segundo o National Institute of Standards and Technology (NIST), especificação é um conjunto de condições e exigências, de aplicação limitada ou específica, que fornece uma descrição detalhada do procedimento, processo, material, produto ou serviço, para uso principalmente em compra e fabricação. Normas podem ser referidas ou incluídas em um especificação.

Norma é um conjunto escrito de condições e necessidades, de aplicação geral ou restrita, estabelecida por uma autoridade ou acordo, para ser satisfeita por um material, produto, processo, procedimento, convenção, método de teste; relacionada com características físicas, funcionais, desempenho ou de conformidade.

Page 195: Metrologia 7a

Fundamentos da Qualidade

185

Padrão é a representação física de uma unidade de medição ou uma receita que define o método para se obter uma unidade de medição.

4. Aspectos da Qualidade Três aspectos são usualmente associados

com a definição de qualidade: qualidade de projeto, qualidade de conformidade e qualidade de desempenho.

4.1. Qualidade de Projeto A qualidade de projeto trata das condições

restringentes que o produto ou serviço deve possuir, no mínimo, para satisfazer as necessidades do usuário. Isso implica que o produto ou serviço deve ser projetado para satisfazer minimamente as necessidades do consumidor.

O projeto deve ser o mais simples e o mais barato e ainda satisfazer as expectativas do usuário. A qualidade de projeto depende de fatores como: tipo do produto, custo, política de lucro, demanda do produto, disponibilidade de peças e materiais e segurança. Por exemplo, seja um cabo de aço cujo nível de qualidade requeira uma resistência para suportar 100 kg/cm2. Quando se projeta tal cabo, selecionam-se os parâmetros do cabo para ele suportar, no mínimo, esta tensão. Na prática, o cabo é superdimensionado, de modo que a que a condição desejada seja excedida. Assim, quando se projeta um cabo com 25% além da especificação, o cabo pode suportar tensão de 125 kg/cm2.

Geralmente, quando se aumenta o nível de qualidade projetada, o custo sobe de modo exponencial. Porém, o valor do produto aumenta de um modo crescente no início e depois permanece praticamente constante, além de um determinado nível de qualidade. A figura mostra as curvas do custo do produto e o seu valor. Observa-se que abaixo do nível de qualidade c, o valor é sempre menor que o custo do produto; além do nível, o custo fica maior que o valor do produto e ele fica impraticável. Esta curva serve para escolher o nível mais conveniente de qualidade de projeto.

4.2. Qualidade de conformidade A qualidade de conformidade implica que o

produto fabricado ou serviço prestado deve satisfazer as normas selecionadas na fase de projeto. Com relação ao setor de fabricação, esta fase está relacionada com o grau onde a qualidade deve ser controlada, desde a compra das matérias primas até a entrega para o comprador. Esta fase consiste de três etapas:

1. prevenção de defeito 2. procura de defeito 3. análise do defeito e conserto. A prevenção de defeito significa evitar a

ocorrência de defeitos e é usualmente conseguida através de técnicas de controle estatístico de processo. A procura de defeito é conduzida através de inspeção, teste e análise estatística dos dados do processo. Finalmente, as causas de defeito são investigadas e são tomadas ações corretivas.

A qualidade de projeto tem um impacto na qualidade de conformidade. É claro que deve ser possível produzir o que é projetado. Por exemplo, se a especificação de projeto para o comprimento de um pino de aço é 20,0 +- 0,2 mm, deve-se ter um projeto envolvendo ferramentas, materiais e métodos que produza o pino com esta especificação. Se o sistema de produção consegue esta peça com esta especificação, o produto é fabricado com esta especificação. Se o processo é capaz de produzir a peça com especificação de 20,0 ±0,4 mm, a fase do projeto deve ser revista. Se for possível fabricar pinos somente com a tolerância de 20,0 ±0,4, a especificação do produto é alterada. Caso seja mandatória a especificação de 20,0 ± 0,2 mm, deve-se alterar a ferramenta ou o método de produção, certamente com aumento do custo final do produto. Enfim, deve haver uma constante interação entre o projeto e a produção de modo que o projetado possa ser realmente fabricado.

4.3. Qualidade de Desempenho A qualidade de desempenho está

relacionada com a operação do produto quando realmente posto para usar ou quando o serviço foi executado e se mede o grau de satisfação do consumidor. A qualidade de desempenho é função da qualidade de projeto e da qualidade de desempenho. O teste final do produto é sempre feito pelo consumidor. A satisfação de suas expectativas é o principal objetivo. Se um produto não funciona como é esperado, deve-se fazer ajustes nas fases de projeto e de conformidade.

Page 196: Metrologia 7a

Fundamentos da Qualidade

186

Fig. 2. Aspectos da qualidade

5. Gerenciamento da Qualidade Total

5.1. Introdução Em uma economia global, a fabricação de

produtos e a execução de serviços não possui fronteiras. Uma indústria automobilística pode ter o gerenciamento na Alemanha, fabricar o motor no México, montar o carro no Brasil e vendê-lo e prestar assistência técnica na Arábia Saudita. Este carro, da concepção, fabricação e entrega, deve incorporar qualidade.

Na Europa, a International Standards Organization (ISO) desenvolveu normas (série 9000) para estabelecer uma linguagem comum e entendimento dos principais termos e conceitos na qualidade. Nos Estados Unidos, o American National Standards Institute (ANSI) é a organização responsável pela emissão de normas. As normas ANSI são tecnicamente equivalentes às normas ISO.

As normas se referem à fabricação de produtos e execução de serviços, pois estes parâmetros estão quase sempre associados. Na maioria dos casos, um fabricante de produtos é também um entregador de serviços. Por exemplo, quando se pede uma refeição no restaurante, a componente serviço da comida é tão importante quanto a componente produto, que é a comida em si. O maître toma o pedido do cliente com todas as especificações da comida, o cozinheiro faz a comida usando produtos comprados de diversos fornecedores, o garçom entrega a comida e serve o cliente, de modo educado e cuidadoso. O ambiente deve ser adequado para a conversação, com música ambiente suave e temperatura adequada. E a conta deve ser honesta para o cliente e deve dar lucro ao dono do restaurante.

Quando a qualidade dos bens e serviços complexos deve ser controlada e garantida, deve-se implantar um programa de qualidade total. O objetivo do programa é medir, detectar, reduzir, eliminar e evitar deficiências na qualidade. Deficiências podem ser

1. produtos com defeito 2. serviços descorteses 3. entregas demoradas 4. falta de assistência pós-venda

5.2. Sistema de Qualidade Total Um sistema de qualidade é estabelecido na

estrutura operacional de toda a companhia e planta, documentado em procedimentos efetivos e integrados relativos ao gerenciamento e trabalhos técnicos, para orientar as ações coordenadas das pessoas, máquinas e informações da companhia e planta do modo melhor e mais prático possível para garantir a satisfação da qualidade do usuário e custos econômicos da qualidade.

5.3. Malha da Qualidade Os principais elementos da malha de

qualidade de um programa de gerenciamento de qualidade total, conforme são os seguintes:

1. Marketing e pesquisa de mercado 2. Projeto, especificação, engenharia e

desenvolvimento do produto 3. Procurement 4. Planejamento e desenvolvimento do

processo 5. Produção 6. Inspeção, teste e exame 7. Embalagem e armazenamento 8. Venda e distribuição 9. Instalação e operação 10. Assistência técnica e manutenção 11. Descarte depois do uso

Marketing e pesquisa de mercado A responsabilidade do marketing é

identificar o mercado, identificar as necessidades do cliente, desenvolver uma descrição resumida do produto e estabelecer um sistema de controle à realimentação negativa (feedback).

Um mercado pode ser inteiramente novo, já estabelecido ou um segmento de um mercado estabelecido. Pode-se desenvolver um produto totalmente novo para um mercado novo. Este produto tem um preço normalmente muito elevado, para recuperar alguns custos de desenvolvimento e pesquisa. Esse novo produto inicialmente não tem competição e de modo que se alguém quiser comprá-lo, deve pagar o seu alto preço.

Qualidade

Qualidade de Conformidade

Qualidade de Desempenho

Qualidade de Projeto

Page 197: Metrologia 7a

Fundamentos da Qualidade

187

Para um mercado estabelecido, pode-se ter uma versão melhorada do produto existente com preço equivalente, ou um produto similar com preço mais baixo. Pode-se também desenvolver um produto especializado para um segmento de um mercado estabelecido. Esse produto satisfaz as necessidades de um segmento específico do mercado alvo.

O marketing também identifica as necessidades, vontades e expectativas de produtos e serviços. Quase todo produto tem um componente serviço associado, que é tão importante quanto o componente produto. Por exemplo, quem compra um microcomputador IBM compra também o serviço que está associado com o nome IBM.

Assim que as necessidades do usuário são identificadas, elas são comunicadas à organização em termos de um conjunto de necessidades resumidas em uma especificação do produto. As necessidades do cliente se transformam gradualmente em especificações do produto e do serviço, como características de desempenho, estética, embalagem, preço, exigências legais.

Finalmente, o marketing estabelece uma informação, monitoração e sistema de realimentação negativa. As necessidades do usuário se alteram e uma organização deve continuamente se acomodar a essas alterações através do ciclo de vida do produto. Se não houver esta adaptação, os produtos e serviços irão envelhecer e não mais irão satisfazer as necessidades do usuário.

A maioria dos produtos segue um ciclo de vida consistindo de quatro estágios: introdução, crescimento, maturidade e declínio. Esses quatro estágios mostram o perfil de vendas de um produto. Quando um produto é introduzido no mercado, as vendas podem ser baixas por que as pessoas ainda não conhecem o produto ou não conhecem os benefícios resultantes de seu uso ou o produto pode ter um preço muito alto. Em seu estágio de crescimento, através da propaganda, as pessoas tomam conhecimento de seus benefícios potenciais ou de sua habilidade de satisfazer suas necessidades. As vendas crescem. No estágio de maturidade, os competidores desenvolvem produtos melhores com mesmo preço ou produtos com igual desempenho mas com preço menor. As vendas permanecem estáveis. Finalmente, no estágio de declínio, a competição força a organização desenvolver novos produtos ou abaixar o preço do produto existente. De qualquer modo, as vendas caem.

Projeto, especificação, engenharia e desenvolvimento do produto

A engenharia usando o resumo do produto, transforma as necessidades do usuário em especificações técnicas para materiais, produtos e processos. No desenvolvimento do produto, são considerados os seguintes parâmetros: necessidades do usuário, custo, facilidade de fabricação e de teste e qualidade do projeto.

A engenharia primeiro desenvolve uma ideia e o conhecimento do que o usuário quer ou espera. Geralmente, as necessidades, vontades e expectativas do usuário são vagas e a engenharia somente tem uma ideia abstrata do mercado. O marketing deve obter informações dos grupos enfocados, amostragens, pesquisas e outras fontes. O marketing acredita que a organização pode desenvolver um produto ou serviço para satisfazer estas exigências. A engenharia então determina se é possível desenvolver o produto dentro do tempo e orçamento estabelecidos.

Mesmo durante as considerações da satisfação do cliente, os custos do produto e sua entrada são sempre considerados. Se um produto tem um alto preço e uma imagem de qualidade, ele vende pouco, o mercado é rico mas não é um mercado de massa.

Às vezes, o engenheiro projeta um produto no terminal do computador e não solicita informação ou ajuda quanto à sua capacidade de ser construído. Um produto projetado com pequenas tolerâncias é, às vezes, impossível de ser fabricado ou operado. Tolerâncias muito pequenas ou muito grandes podem resultar em falhas prematuras, causadas pela interferência de peças muito encaixadas ou muito folgadas.

A qualidade no projeto é essencial para um produto final ser livre de defeitos, seguro e confiável. Projeto ruim causa falha prematura do produto. Se os erros de projeto não são corrigidos, eles são repetidos em cada produtos fabricado. O projeto bom implica em segurança e saúde. Se uma planta nuclear não é projetada e construída com a segurança em mente, um acidente pode liberar radioatividade na atmosfera, resultando em mortes (Chernobyl e Three Mile Island).

O projeto também deve considerar a confiabilidade, o efeito a longo prazo da qualidade. Produto confiável é aquele que raramente se estraga. Quando estragado, o produto deve ser rapidamente consertado. O instrumento é considerado muito disponível quando raramente se estraga e é facilmente consertado.

Page 198: Metrologia 7a

Fundamentos da Qualidade

188

Matéria prima Dependendo do produto e da indústria,

muitos fabricantes usam cerca de 70% de seu material de fornecedores externos. Um produto final só é de boa qualidade quando os seus componentes adquiridos forem de boa qualidade. Assim, a compra e o controle de compra das matérias primas e peças de terceiros são fundamentais para a qualidade do produto final.

Deve-se selecionar e monitorar os fornecedores. A seleção dos fornecedores é um processo formal que avalia os fornecedores quanto à sua habilidade de fabricar um produto sem defeito, com preço competitivo, entregue no tempo combinado e com suporte de serviço adequado. A monitoração dos fornecedores garante que seus produtos estão de conformidade com as especificações. A monitoração inclui auditorias nas dependências do fornecedor relativas ao seu sistema de qualidade, teste e melhoria do produto.

Um fabricante é um comprador de seus fornecedores. O comprador deve comunicar aos seus fornecedores as suas especificações detalhadas, com desenhos, ordens de compra e contratos. As necessidades do usuário devem incluir:

1. características de qualidade do produto 2. características de serviço 3. ambiente de operação 4. identificações precisas de estética e grau

de qualidade 5. instruções de inspeção 6. especificações do produto

Processo, planejamento e desenvolvimento Os processos de produção, quer sejam de

inspeção, montagem ou fabricação, devem ser planejados para que operem corretamente sob condições controladas. Isto significa que os equipamentos de fabricação, produção e os instrumentos de medição são monitorados, calibrados e controlados conforme programas elaborados para fabricar produtos sem defeitos. A variabilidade causada pelos operadores, materiais, métodos e máquinas é mantida dentro de limites mínimos exequíveis. As operações de produção são detalhadas. As instruções de trabalho e manutenção são seguidas. O pessoal envolvido é treinado.

Produção A produção torna realidade o projeto da

engenharia. Os desenhos e especificações são transformados em produto. Produção é um termo abrangente que inclui montagem, fabricação e inspeção em linha.

A responsabilidade pela qualidade fica com o operador e o supervisor de produção. O

supervisor de produção deve comunicar a importância da qualidade ao pessoal da linha de montagem. Deve haver uma dedicação honesta na perseguição e obtenção da excelência e uma interminável e contínua melhoria. Se o programa de qualidade é apenas retórico ou teórico, o trabalhador da linha de produção ou o operador do processo sente a manipulação, rejeita-a e não se empenhará para que o produto final tenha a qualidade desejada.

Assim que um processo entra em operação, ele é controlado manual ou automaticamente para garantir as características de qualidade e quantidade do produto, dentro de limites determinados. Pode-se implantar o controle estatístico de processo, que engloba as seguintes idéias básicas:

1. qualidade é a conformidade com as especificações

2. processos e produtos variam sempre 3. as variações nos processos e produtos

podem ser medidas 4. as variações seguem padrões

identificáveis 5. as variações devidas a causas

assinaláveis distorcem o formato da distribuição normal

6. as variações são detectadas e controladas através do controle estatístico do processo.

O controle estatístico de processo envolve a comparação da saída de um processo ou serviço com uma norma ou padrão e a tomada de ações corretivas em caso de discrepância entre as duas. O controle estatístico também envolve a determinação da habilidade de um processo fabricar um produto que satisfaça as especificações ou necessidades desejadas.

Inspeção, teste e exame Inspeção, teste e exame são aplicados a

processos e produtos. O nível de teste depende do produto, do risco ao consumidor, risco ao produtor, custo e legislação vigente. Por exemplo, produtos envolvendo a saúde e segurança públicas tem riscos associados com o produtor e o consumidor, se o produto falha. Este tipo de produto deve ser regulado por leis governamentais, que incluem testes e inspeção. Por exemplo, produtos alimentícios e farmacêuticos possuem legislação federal específica, que estabelece testes, fabricação e distribuição.

A qualidade do produto é somente tão exata quanto os instrumentos de medição usados para verificar sua qualidade. Isto implica que qualquer instrumento de medição deve ser exato e preciso para fornecer o gerenciamento com suficiente confiança nas decisões e ações

Page 199: Metrologia 7a

Fundamentos da Qualidade

189

baseadas nas medições. Indicadores locais, instrumentos e equipamentos de teste automático devem ser escolhidos para satisfazer ou exceder as exigências do usuário. Todo instrumento de medição deve ser calibrado ou aferido em intervalos regulares, com padrões apropriados. Todo padrão, em qualquer nível hierárquico deve ser calibrado ou aferido também em intervalos regulares, nas próprias dependências ou em laboratórios externos.

A qualidade do produto pode ser verificada através da entrada, em linha com o processo ou através da inspeção final. A matéria prima examinada quando chega. O controle estatístico do processo é usado para controlar o desempenho em linha do processo. A inspeção final ocorre antes que o produto é enviado para a estocagem ou para o usuário.

O grau e a frequência da inspeção depende da importância da característica da qualidade e da capacidade do processo. Se a qualidade de um produto é essencial ao desempenho do produto, então o produto pode ser 100% inspecionado.

Embalagem e armazenamento A qualidade somente pode ser mantida se

os produtos são embalados, armazenados, manipulados e transportados adequadamente. A embalagem adequada protege o conteúdo contra perigos devidos a vibração, choque mecânico, calor, abrasão e corrosão. Alguns produtos requerem cuidados especiais no armazenamento, manipulação e embalagem. Por exemplo, circuitos eletrônicos integrados devem ser embalados em sacos envelopes antiestáticos; produtos alimentícios perecíveis devem ser transportados em containers refrigerados; equipamentos que entram em contato direto com oxigênio, cloro ou outro oxidante forte deve ser isento de pó e óleo.

Vendas e distribuição Assim que o produto é vendido, ele deve ser

entregue ao comprador em estado intacto, no prazo combinado e de modo cortês. Se o produto é danificado durante o transporte, o problema deve ser tratado efetiva e eficientemente com o comprador. Se o pessoal de entrega é mal educado, cria-se uma má impressão do produto, mesmo antes de ser usado. É importante monitorar e corrigir essa situação porque ela afeta as vendas futuras.

Instalação e operação Produtos industriais complexos podem

requerer ferramentas, equipamentos, métodos especializados ou pessoal treinado para a sua instalação e operação. Em um mínimo, as máquinas e produtos complexos devem ter

manuais detalhados e claros, que descrevem a instalação e operação seguras. A documentação de instalação e operação inclui instruções de montagem, reparo, instalação e operação, lista de peças de reposição e informação de serviço do produto.

Assistência técnica e manutenção Assim que o produto é vendido, o

comprador de um produto técnico ou complexo poderia requerer assistência técnica para manter sua operação. Assistência técnica pode se resumir em responder perguntas por telefone. Serviço pós-venda de equipamento complexo pode significar o envio de um técnico especializado para reparar, substituir, manter ou modificar uma peça sofisticada do equipamento. A assistência técnica pós-venda cria lealdade ao produto ou à marca, que gera novas vendas.

Jogada fora depois do uso Após o uso, um produto descartável deve

ser jogado fora de modo adequado e seguro. Se o produto não tem mais vida útil, ele deve ser jogado fora. Porém, um produto pode ter sua vida estendida, quando reparável. Se ele deve ser jogado fora, isso deve ser feito de modo a não prejudicar a segurança, saúde ou ambiente. Por exemplo, a legislação cuida e regula o lixo de produtos químicos tóxicos.

Depois que um produto sai da malha de qualidade, a malha recomeça com um outro produto, novo ou melhorado. Há muito poucos produtos ou serviços que não seguem a malha da qualidade, por que os produtos devem se adaptar às variações do mercado ou desaparecer.

Page 200: Metrologia 7a

Fundamentos da Qualidade

190

Modo detecção – inspeção Modo prevenção – controle de processo Fig. 6. Comparação entre operações de inspeção e prevenção

ig. 4. Malha típica de qualidade, conforme ANSI/ASQC Norma Q94: Quality Management and Quaality System Elements – Guide lines.

Jogado fora depois do uso

Assistência técnica e manutenção

Marketing e pesquisa de mercado

Engenharia do projeto e especificação do produto

Instalação e operação

Venda e distribuição

Embalagem e armazenamento

Inspeção, teste e exame

Produção

Planejamento e desenvolvimento do processo

Compra de matéria prima e peças constituintes

Consumidor

Máquina Operador Material Métodos Ambiente

Processo Inspeção

Valor adicionado Custo adicionado

Produto retrabalhado Custo adicionado Produto descartado

Custo adicionado

Máquina Operador Material Métodos Ambiente

Processo

Consumidor satisfeito

Medição

Valor adicionado

Ajustes

Page 201: Metrologia 7a

Fundamentos da Qualidade

191

6. Inspeção e Prevenção

6.1. Inspeção A prevenção de defeitos, não

conformidades, falhas e imperfeições é a filosofia básica do programa de qualidade. A prevenção diminui os defeitos, melhora os processos e eventualmente diminui os custos. Os conceitos de inspeção e prevenção são diferentes.

As entradas são as mesmas nos processos de inspeção e prevenção: máquina, operador, material, método e ambiente. Cada uma dessas entradas é uma causa potencial de dispersão ou variação das características do produto. As operações de fabricação ou montagem processam as entradas, adicionando valor em cada passo operacional.

Um processo pode ter de um até 100 passos. No final do primeiro passo ou no centésimo passo, um operador pode inspecionar ou testar o produto para verificar sua conformidade com a especificação. Se aceitável, o produto é embalado e enviado para o comprador. Se rejeitado, o produto é jogado fora ou enviado de volta para o processo para retrabalho. Pelo tempo que o produto é processado, adiciona-se valor ao produto em termos de trabalho direto, matérias primas, equipamento e treinamento. Neste ponto, se um produto é jogado fora ou retrabalhado, perde-se valor.

6.2. Modo Prevenção No modo prevenção, as entradas são as

mesmas. Também, o processo pode ter de um a 100 passos e adiciona-se valor em cada passo. No modo prevenção, o processo é controlado. A diferença básica entre inspeção e prevenção é que durante o processo, o operador continuamente mede peças e ajusta o processo se a característica desvia dos limites calculados. O operador evita que ocorram defeitos, controlando a saída da operação. O objetivo é enviar produtos sem defeitos ao usuário.

7. Medição A qualidade é somente tão boa quanto o

instrumento de medição. A medição é importante por que a qualidade

das decisões de gerenciamento subsequentes é somente tão confiável quanto os dados obtidos através dos instrumentos de medição. Muitas análises de qualidade assumem que os dados da medição são exatos e precisos, mas

nem sempre isso é garantido. Os instrumentos de medição podem ser de má qualidade (imprecisos) ou descalibrados (inexatos). Mais ainda, os instrumentos podem estar podem estar mal aplicados, abusados, ultrapassados e estragados.

Assim como o produto de um processo de fabricação pode variar durante um período de tempo, a saída de um instrumento complexo de medição pode variar com o tempo. O controle da qualidade é responsável pela seleção do instrumento apropriado e pela manutenção de sua exatidão. A exatidão é estabelecida e mantida através de um programa sistemático de calibração periódica, armazenamento seguro e manuseio correto.

A medição exata requer: 1. unidades de medição do SI 2. seleção do instrumento de exatidão

necessária 3. calibração dos instrumentos após abuso,

queda, defeito 4. calibração periódica dos instrumentos 5. calibração envolvendo padrões com

exatidão de 4 a 10 vezes melhor que a do instrumento calibrado

6. programa de aferição e calibração dos padrões envolvidos (trabalho, transferência e referência)

7. operação e manutenção feita por pessoal treinado e motivado.

8. Algumas Filosofias de Qualidade

8.1. Introdução Várias pessoas fizeram grandes

contribuições no campo do controle da qualidade. Aqui serão vistas as contribuições de três pioneiros que tiveram um papel fundamental na adoção e integração da garantia e do controle da qualidade na indústria, através de seus ensinamentos, artigos, livros e consultorias. Estes pioneiros são W. Edwards Deming, Philip B. Crosby e Joseph M. Juran Todas as filosofias centram a qualidade no gerenciamento e no seu comprometimento com o programa da qualidade.

8.2. W. Edwards Deming e sua filosofia

W. E. Deming foi um consultor que se tornou famoso com o trabalho de qualidade feito no mundo industrial japonês, a partir do término da Segunda Grande Guerra. Ele era matemático e físico, com PhD. da Universidade de Yale, em 1928. Ele tinha um grande

Page 202: Metrologia 7a

Fundamentos da Qualidade

192

conhecimento de estatística que ele aplicou no controle de qualidade.

Em 1950 ele foi convidado pela União de Cientistas e Engenheiros Japoneses (JUSE) para ir ao Japão. Até esta data o Japão tinha uma reputação ruim em qualidade e estava falido depois da guerra. Mesmo com estas condições iniciais adversas, Deming conseguiu desenvolver e inocular produtos japoneses com qualidade. Durante os últimos 40 anos o produto japonês passou a ser sinônimo de qualidade. O Japão passou a fabricar relógios melhores que os suíços, máquinas fotográficas melhores que as japonesas, equipamentos eletrônicos melhores que os americanos, navios melhores que os escandinavos. A melhoria da qualidade não foi repentina, de um dia para outro, mas foi um processo lento e contínuo. Até hoje são válidos e aplicados os princípios de Deming no Japão. O americano Deming foi agraciado com a Medalha de Segunda Ordem do Tesouro Sagrado pelo imperador Hirohito e no Japão existe o Prêmio Deming para pessoas ou firmas que tenham se destacado no campo da qualidade. Já foram ganhadoras do Prêmio Deming firmas como Toyota, Nissan, Nippon Steel e Hitachi. A Texas Instruments foi a primeira firma americana a ganhar este prêmio (1985).

É irônico que o primeiro nome em qualidade no Japão seja um americano. A verdade é mais estranha que a versão. As firmas americanas rejeitaram as idéias de Deming, logo depois da guerra. Neste período a demanda era muito grande, a qualidade aceitável. Como tudo que era produzido era vendido, pouco se fez para melhorar a qualidade. Não houve uma visão a longo prazo e nem evolução. Somente depois que os produtos japoneses substituíam os produtos americanos, nos Estados Unidos, é que as indústrias americanas começaram a adotar a filosofia de controle e garantia de qualidade. Esta adaptação era o único meio de sobrevivência - não havia outra alternativa.

Filosofia A filosofia de Deming enfatiza o

gerenciamento. Quase 85% dos problemas da indústria podem ser resolvidos apenas por gerenciamento. Estas tarefas envolvem mudança no sistema de operação e não são influenciadas pelos trabalhadores. Os trabalhadores tem a responsabilidade de comunicar a informação que eles tem sobre o sistema para o gerente, de modo que ambos trabalhem em harmonia. Para Deming a organização é uma entidade integrada. Deve haver um planejamento a longo prazo e um plano de ação a curto prazo. Por exemplo, no

Brasil, só se pensa em ganhos rápidos e imediatos.

Deming acredita na adoção de programa de qualidade total e enfatiza a natureza contínua e interminável do controle da qualidade e na sua melhoria. Tal programa leva inevitavelmente para os objetivos estabelecidos, maior produtividade e menores custos totais a longo prazo. Ele elimina o erro de se pensar que o aumento da qualidade também aumenta os custos e diminui a produtividade. A filosofia de Deming oferece um plano de ação para se obter resultados a longo prazo. Ele afirma a necessidade de se desenvolver uma cultura na organização onde se abandonam os objetivos imediatos, como os lucros trimestrais. A filosofia de qualidade deve ser adotada, praticada e usada como um meio de vida na organização. Os princípios devem ser reaprendidos e refinados baseando-se na experiência acumulada de cada firma. No centro da filosofia está a necessidade de os gerentes e trabalhadores falarem a mesma linguagem e a linguagem sugerida pelo matemático Deming é a estatística. A filosofia Deming só produz resultados notáveis quando todo o pessoal envolvido com o processo entende os princípios fundamentais de estatística para usar no controle e melhoria do processo. Assim, as idéias fundamentais tratam do entendimento e uso de ferramentas estatísticas e uma mudança na atitude de gerenciamento Os 14 pontos de Deming fornecem uma referência para a ação aos gerentes e um caminho a ser seguido para ser competitivo por muito tempo.

Enfim, quando ele aponta para a lua, ele olha a lua e não a ponta do dedo!

14 pontos de Deming O foco da filosofia de Deming está no

gerenciamento. Para Deming, o gerente não pode fugir da responsabilidade e tentar culpar os outros. Embora uma minoria dos problemas sejam devidos aos fornecedores ou trabalhadores, a maioria dos problemas é devida ao gerenciamento. Deve-se alterar fundamentalmente o estilo de gerenciamento e a cultura da empresa.

Na filosofia de Deming a gerência deve criar um ambiente de segurança para os trabalhadores sentirem orgulho de seu trabalho e serem recompensados de acordo. Os gerentes e trabalhadores devem trabalhar juntos, como uma equipe, para lidar com os fornecedores e investidores. A cultura da organização deve remover o medo do sistema de modo que os trabalhadores possam se sentir confortáveis em recomendar alterações

Page 203: Metrologia 7a

Fundamentos da Qualidade

193

do produto ou do processo. Deve haver confiança entre empregados e gerentes.

Os 14 pontos de Deming fornecem o sentido da direção. Os métodos de Deming incorporam ferramentas estatísticas. A adoção destes princípios garantem e sustentam a produtividade e competição da companhia por muito tempo.

1. Crie e publique para todos os empregados a declaração dos objetivos e propósitos da companhia. O gerenciamento deve demonstrar constantemente a responsabilidade de seguir esta declaração.

2. Aprenda a nova filosofia, a alta gerência e todo mundo.

3. Entenda o objetivo da inspeção para a melhoria dos processos e redução dos custos.

4. Acabe com a prática de considerar o negócio somente na base do preço final.

5. Melhore constantemente e pelo futuro todo o sistema de produção e serviços.

6. Institucionalize o treinamento 7. Ensine e institucionalize a liderança. 8. Elimine o medo. Crie confiança. Crie

um clima de inovação. 9. Otimize através dos objetivos e

propósitos da companhia os esforços da equipe, grupos e pessoal técnico.

10. Elimine os exageros para a força de trabalho.

11. Elimine as cotas numéricas para a produção. Em vez disso, entenda e institua métodos para a melhoria. Elimine o gerenciamento por objetivos. Em vez disso, entenda as capacidades do processo e como melhorá-las.

12. Remova as barreiras que tiram o orgulho da mão de obra das pessoas.

13. Encoraje a educação e a competência de todos.

14. Aja para acompanhar a transformação

8.3. Philip B. Crosby e sua filosofia Philip B. Crosby trabalhou 14 anos na ITT

como responsável pelas operações de qualidade da companhia em todo o mundo e atualmente é o presidente da Philip Crosby Associates (1979).

O enfoque Crosby começa com uma avaliação do sistema de qualidade existente. Sua grade de gerenciamento da qualidade fornece um método de identificar onde está a operação de qualidade existente e aponta as

operações que podem ser melhoradas. Esta grade é dividida em cinco estágios de maturidade:

1. incerteza (uncertainty) 2. despertar (awakening) 3. conhecimento (enlightenment) 4. julgamento (wisdom) 5. certeza (certainty) Há seis categorias de gerenciamento que

ajudam na avaliação do processo: 1. entendimento e atitude do gerenciamento 2. status da qualidade da organização 3. manipulação do problema 4. custo da qualidade como % de vendas 5. ações para a melhoria da qualidade 6. sumário da postura de qualidade da

companhia.

4 premissas do gerenciamento da qualidade Para entender o significado de qualidade,

Crosby identificou quatro premissas do gerenciamento da qualidade:

1. Definição de qualidade: qualidade significa conformidade com necessidades.

2. Sistema para obtenção da qualidade: o enfoque racional é a prevenção de defeitos.

3. Padrão de desempenho: o único padrão de desempenho é zero defeito.

4. Medição: a medição do desempenho é o custo da qualidade, que inclui refugo, retrabalho, serviço, inspeção e teste.

14 passos para a melhoria da qualidade Crosby também tem o número cabalístico

de 14 passos para a melhoria da qualidade. 1. Comprometimento da gerência 2. Equipe de melhoria da qualidade 3. Medição da qualidade 4. Avaliação do custo da qualidade 5. Despertar da qualidade 6. Ação corretiva 7. Ad hoc comitê para programa de zero

defeito 8. Treinamento de supervisores 9. Dia do zero defeito 10. Estabelecimento de objetivo 11. Remoção da causa de erro 12. Reconhecimento 13. Seminários de qualidade 14. Faça isso sempre.

8.4. Joseph M. Juran e sua filosofia O engenheiro e advogado Joseph M. Juran

é o fundador e presidente emérito do Instituto Juran, que oferece consultoria e treinamento de gerenciamento em qualidade. Desde 1924 Juran desenvolve uma carreira na indústria como engenheiro, árbitro e diretor, além de ter

Page 204: Metrologia 7a

Fundamentos da Qualidade

194

sido administrador do governo e professor universitário. Possui vários livros sobre planejamento, controle, gerenciamento e melhoria da qualidade. Começou a dar cursos no Japão (1954) e depois repetiu os seminários durante mais de 30 anos, em mais de 40 países e todos os continentes.

Juran define qualidade como adequação ao uso. O foco da qualidade é a necessidade do usuário final. Há várias não-uniformidades em uma companhia que atrapalham o desenvolvimento de um processo, como

1. Há funções múltiplas, como marketing, projeto e desenvolvimento, fabricação e venda do produto, onde cada função se julga a mais importante, a única e a especial.

2. A presença de níveis hierárquicos na estrutura da organização cria grupos de pessoas com diferentes responsabilidades. Estes grupos variam em formação e tem diferentes conceitos acerca da qualidade.

3. Há várias linhas de produto que diferem em mercado, processos de produção, causando uma perda de unidade.

Juran propõe um modo universal de pensar qualidade. Este conceito deve ser o mesmo para todas as funções, níveis de gerenciamento e ilhas de produto. A qualidade requer continuamente

1. planejamento 2. controle 3. melhoria.

Planejamento O planejamento da qualidade inclui: 1. Identificação do cliente, interno e externo. 2. Determinação das necessidades do

cliente. 3. Desenvolvimento das características do

produto que atendam as necessidades do cliente.

4. Estabelecimento dos objetivos da qualidade que satisfaçam igualmente às necessidades dos clientes e fornecedores, a um custo combinado mínimo.

5. Desenvolvimento de um processo que possa fabricar as características necessárias do produto.

6. Prova da capacidade do processo.

Controle O controle da qualidade inclui: 1. Escolha das características a serem

controladas 2. Escolha das unidades de medição. 3. Estabelecimento das medições. 4. Estabelecimento das especificações e

padrões.

5. Medição do desempenho real. 6. Interpretação da diferença entre o real

versus o padrão. 7. Eliminação das diferenças.

Melhoria A melhoria da qualidade envolve: 1. Prova da necessidade da melhoria. 2. Identificação dos projetos específicos

para a melhoria. 3. Organização para conduzir os projetos. 4. Organização dos diagnósticos para

descobrir as causas. 5. Procura das causas. 6. Tomada de ações corretivas. 7. Prova de que as ações corretivas são

efetivas nas condições de operação. 8. Fornecimento de controle para manter os

ganhos.

8.5. Comparação das Três Filosofias As três filosofias de qualidade de Deming,

Crosby e Juran tem o mesmo objetivo de desenvolver um sistema integrado de qualidade total com uma atuação contínua na melhoria. Há muitas semelhanças e algumas diferenças entre estes três planos. Como disseram Lowe e Mazzeo, são três pastores e uma única religião.

Definição A definição de Deming trata a qualidade

como uma uniformidade previsível do produto, conseguida através do controle estatístico do processo. A qualidade do produto é refletida na qualidade do processo, que é o seu foco de atenção. A sua definição não dá muita importância ao usuário final, como o fazem Crosby e Juran. Deming inclui o usuário no conceito de processo estendido.

Crosby define qualidade como conformidade à necessidade. A necessidade é formulada em função do usuário. O desempenho de zero defeito implica em procurar estar sempre satisfazendo um conjunto de exigências.

Juran define qualidade como adequação do produto a um uso estabelecido e incorpora o usuário. A definição relaciona claramente a satisfação da necessidades do cliente.

Compromisso da gerência Todos os três especialistas enfatizam a

importância do comprometimento da alta gerência no programa de qualidade. Deming fala da criação de um objetivo permanente e constante em direção à melhoria da qualidade e define as tarefas da gerência.

Page 205: Metrologia 7a

Fundamentos da Qualidade

195

Crosby fala da criação de uma cultura de qualidade, que só pode ser obtida através do envolvimento da gerência.

Juran fala do planejamento, controle e melhoria do processo de qualidade com o suporte da gerência em todos os níveis.

Assim, em todas as três filosofias, o suporte da alta gerência é fundamental.

Estratégia Deming estabelece uma estratégia para a

alta gerência. A gerência deve seguir os primeiros 13 pontos e deve criar uma estrutura para promover continuamente esses 13 pontos em um ciclo interminável de aprimoramento (o 14o ponto cria esta estrutura).

O enfoque de Crosby é estruturado. Seu segundo ponto sugere a criação das equipes de melhoria de qualidade.

Juran recomenda a criação de equipes de pessoas para orientar o processo de melhoria da qualidade, diagnosticando e resolvendo os eventuais problemas.

Medição Os três especialistas consideram a

qualidade uma entidade possível de ser medida, assumindo diferentes graus. Às vezes, se quer saber os efeitos da boa qualidade em dinheiro, em economia, em aumento de produtividade. Um objetivo fundamental da estratégia de qualidade é eliminar refugos e retrabalho, que irá reduzir o custo da produção e aumentar a produtividade. O custo total da qualidade pode medido dividindo-se a qualidade em itens como prevenção, avaliação, falha interna e externa. É mais difícil medir o custo da não-qualidade ou o prejuízo provocado pela não-satisfação do cliente. Crosby dizia que a qualidade é grátis, é a não-qualidade que custa.

Processo interminável Todas as três filosofias de Deming, Crosby

e Juran acreditam em um processo sem fim de melhoria da qualidade. Os 14 pontos de Deming são repetitivos em relação à melhoria da qualidade e há o ciclo PDCA (Plan-Do-Check-Act - planejar, fazer, verificar e agir). Crosby e Juran recomendam o ciclo contínuo de planejar, controlar e melhorar a qualidade.

Educação e treinamento É fundamental para a melhoria da qualidade

a existência de um pessoal que seja treinado na filosofia e nos aspectos técnicos da qualidade. Deming se refere ao treinamento em seu ponto 6, que recomenda o treinamento de todos os empregados e no ponto 13 que descreve a necessidade de retreinamento para se manter sintonizado com as mudanças das

necessidades do cliente, através de alterações no produto e no processo.

A educação é também citada por Crosby em seu ponto 8, que enfatiza a necessidade do desenvolvimento de uma cultura de qualidade dentro da organização para haver um clima propício à qualidade.

Juran não fala explicitamente em educação e treinamento. Porém, estes conceitos estão implícitos, por causa da necessidade de diagnosticar os defeitos e determinar as ações corretivas, só possível com um pessoal com conhecimento do processo e das relações causa e efeito do sistema.

Eliminação das causas dos problemas Deming usa os termos causas especiais e

causas comuns para denominar os problemas que aparecem devido à ocorrência de algo imprevisto ou que sejam inerentes ao sistema, respectivamente. Exemplos de causas especiais são os problemas devidos à qualidade inferior de um vendedor não-qualificado ou uso de uma ferramenta inadequada. As causas comuns não possuem razões especiais e podem ser eliminadas com mudanças no sistema. Exemplos de causas comuns são a variabilidade natural da máquina e da capacidade do operador.

Deming e Juran estabelecem que cerca de 85% dos problemas são controláveis pelo gerenciamento. Assim, ações de gerenciamento podem eliminar diretamente os problemas ou podem fornecer a autoridade e as ferramentas para os trabalhadores eliminarem os problemas.

O centro da filosofia de Deming é o uso de técnicas estatísticas para a identificação das causas especiais e das causas comuns. Deming atribui as variações fora dos limites de controle como especiais. Estas variações podem ser controladas pelo operador e os operadores devem tomar providências para eliminá-las. As variações dentro dos limites de controle são consideradas comuns. Estas variações são controláveis pelo gerenciamento e requerem ação da sua parte para serem removidas.

Juran diz que as causas especiais criam problemas esporádicos e as causas comuns criam problemas crônicos. Juran fornece recomendações detalhadas para identificar os problemas esporádicos. Por exemplo, os erros do operador podem ser acidentais, propositais ou devidos a treinamento inadequado e técnica imprópria.

Juran e Crosby fornecem especificações para se obter o desempenho padrão de zero defeito. Crosby sugere a ação para a remoção da causa de erro em seu ponto 11.

Page 206: Metrologia 7a

Fundamentos da Qualidade

196

Estabelecimento de objetivo Deming diz claramente que se deve evitar

estabelecer objetivos numéricos arbitrários. Ele acha que objetivos numéricos impedem, em vez de apressar a implementação de um sistema de qualidade total. Não se deve estabelecer objetivos de curto prazo baseados em níveis de produtividade sem considerar a qualidade. Deming não vê necessidade de objetivos de curto prazo pois enfatiza que o processo de melhoria da qualidade nunca acaba.

Crosby e Juran recomendam o estabelecimento de objetivos. O ponto 10 de Crosby trata do estabelecimento de objetivos, onde os empregados sob a orientação dos seus supervisores, devem estabelecer objetivos mensuráveis mesmo para curto prazo, de 30 a 90 dias. Juran recomenda um programa anual de melhoria de qualidade com objetivos estabelecidos. Ele acredita que tais objetivos ajudam na medição do sucesso dos projetados de qualidade aplicados em um dado ano. Os objetivos devem se basear nas necessidades dos consumidores. O desempenho do programa é medido pela obtenção dos objetivos numéricos estipulados.

Plano estrutural Os 14 pontos de Deming para a melhoria da

qualidade enfatizam o uso de ferramentas estatísticas em todos os níveis. Primeiro, se leva o processo para um estado de controle estatístico, através de cartas de controle e depois procura-se melhorar o processo. A eliminação das causas especiais para levar o processo para o estado de controle ocorre nos níveis inferiores da estrutura da organização. Quando essas causas são removidas e o processo fica sob controle estatístico, requer a atenção dos níveis superiores da gerência para conseguir melhoria adicional. O plano de Deming é de baixo para cima.

Crosby enfatiza uma mudança na cultura de gerenciamento. Depois de se implantar a nova cultura, se propõe um plano para gerenciar a transição. O se plano é de cima para baixo.

Juran enfatiza a melhoria da qualidade através de um enfoque projeto-por-projeto.

Page 207: Metrologia 7a

1

E Vocabulário Internacional de Termos Básicos e Gerais em Metrologia (VIM)

As definições dos termos metrológicos gerais relevantes para este

trabalho são dadas a partir do International vocabulary of basic and general terms in metrology (abreviado VIM), 3a ed. , publicado pela ISO, em ABR 2004 e elaborado por especialistas e em nome das sete organizações que suportam seu desenvolvimento:

1. Bureau Internacional de Poids et Mesures (BIPM), 2. International Electrotechnical Commission (IEC), 3. International Federation of Clinical Chemistry (IFCC), 4. Organization International of Standardization (ISO), 5. International Union of Pure and Applied Chemistry (IUPAC), 6. International Union of Pure and Applied Physics (IUPAP) e 7. International Organization of Legal Metrology (OIML). O VIM deve ser a primeira fonte consultada para as definições

dos termos não incluídos aqui. Nas definições seguintes, o uso de parênteses em torno de certas palavras de alguns termos significa que as palavras podem ser omitidas se isto não causar confusão. Os termos em negrito em alguns notas são termos metrológicos adicionais definidos nestas notas, explicita ou implicitamente.

Os termos estão também consistentes com a Portaria 29, de 10 de março de 1995, do Instituo Nacional de Metrologia, Normalização e Qualidade Industrial INMETRO.

Page 208: Metrologia 7a

ISO VIM 2004

2

Introdução A evolução do tratamento da incerteza metrologia de um enfoque clássico (CA - Classical

Approach) para um enfoque de incerteza (UA – Uncertainty Approach) necessitou da reconsideração das definições feitas na 2ª. Edição (1993) do VIM. O enfoque clássico foi usado para garantir que um mensurando pode finalmente ser descrito por um único valor verdadeiro mas estes instrumentos e medições não aceitam este valor devido a erros aditivos, sistemáticos e aleatórios. Estes erros devem ser tratados de modo diferente na propagação do erro e eram assumidos que eles podiam sempre ser distinguidos. As noções de incerteza aleatória e incerteza sistemática foram introduzidas sem métodos bem fundados de combinação e interpretação. Assim, em vez de incertezas aleatória e sistemática, o conceito unificando o conceito de incerteza na medição foi introduzido, um enfoque reconhecido pela Recomendação BIPM INC-1 (1980), em base de que um detalhado Guia para a Expressão da Incerteza na Medição (Guide to the Expression of Uncertainty in Measurement - GUM, 1993, corrigido em 1995) foi desenvolvido.

Neste enfoque operacional para a avaliação das incertezas da medição há um desvio de percepção, de modo que a noção de erro não é mais usada. Como uma conseqüência, há finalmente somente uma incerteza da medição, aparecendo de vários componentes. Ela caracteriza a extensão de que o valor desconhecido do mensurando é conhecido após a medição, considerando a informação dada da medição. Os conceitos e termos apresentados nos Cap. 1-5 desta 3ª edição do VIM reflete o enfoque da incerteza. Note que está além do escopo deste vocubulario fornecer detalhes para vários dos conceitos aplicados ao enfoque da incerteza; para tais detalhes os interessados devem consultar o GUM.

Há certos conceitos na 2ª. Edição do VIM que se aplicam principalmente para o enfoque clássico, mas também refletem alguns aspectos do enfoque da incerteza. Estes conceitos são evitados no GUM, mas mesmo assim são considerados de importância suficiente e uso comum a ser incluído neste Vocabulário. Eles são apresentados no Anexo A, mas de modo que sejam consistentes com o enfoque clássico. Alguns termos adicionais pertinentes ao enfoque clássico são também incluídos no Anexo A.

Um número de conceitos que apareciam na 2ª. Edição do VIM não mais aparecem nesta 3ª. Edição. Estes são conceitos que provavelmente não podem mais ser considerados como básicos ou gerais. Alguns novos conceitos refletindo a evolução da metrologia foram introduzidos, em particular conceitos relacionados com a incerteza na medição ou rastreabilidade da medição. Também, os vários aspectos da medição na química e física foram considerados quando editando esta 3ª. Edição. Como um resultado, um número de exemplos cobrindo os campos das medições na química e na medicina de laboratório foi adicionado.

Umas poucas definições neste rascunho são marcadas como “definições preliminares” para que elas ainda sejam estudadas pelo JCGM-WG2. Conceitos figurando na 2ª. e 3ª. edições tem um duplo número de referencia; o número de referencia da 3ª. edição está em negrito, em parêntesis e em fonte ligth, a referência anterior da 2ª. edição.

As definições propostas nesta 3ª. edição estão de conformidade, tanto quanto possível, com as regras a serem aplicadas no trabalho de terminologia, como expostas nas normas ISO 704, ISO 1087-1 e ISO 10 241. Em particular, o princípio de substituição deveria ser aplicado, é possível em cada definição substituir qualquer termo definido em qualquer lugar no VIM por sua definição sem introduzir contradição ou circularidade. Tais termos são indicados em negrito nas definições e notas.

Para facilitar o entendimento das diferentes relações entre os vários conceitos dados aqui, foram introduzidos diagramas de conceito nesta 3ª. edição. Eles são dados em um Anexo Informativo.

Page 209: Metrologia 7a

ISO VIM 2004

3

Capítulo 1. Quantidades e Unidades

1.1 (1.1)

quantidade

propriedade de um fenômeno, corpo ou substância, para a qual uma magnitude pode ser atribuída.

NOTAS

1. conceito quantidade pode ser subdividido em dois níveis: conceito geral e conceito individual.

EXEMPLOS

Conceito geral (nome e símbolo) Conceito individual (nome e símbolo

Quantidade, Q Comprimento, l Raio, r Raio do círculo A, rA ou r(A)

Comprimento de onda, λ

Comprimento de onda da radiação D do sódio, λD ou λ(D;Na)

Energia, E Energia cinética, T

Energia cinética da partícula i em um dado sistema, Ti

Calor, Q Calor de vaporização da amostra i da água, Qi

Carga elétrica, Q Carga elétrica do próton, e

Resistência elétrica, R Resistência elétrica do resistor i em um dado circuito, Ri

Concentração em quantidade de substância da entidade B, cB

Concentração em quantidade de substância de etanol em amostra i de vinho, ci(C2H5OH)

Dureza Rockwell C, HRC Dureza Rockwell C de amostra de aço i, HRC(i)

2. símbolos para quantidades são dados na norma internacional ISO 31:1992, Quantidades e Unidades.

1.2. (Nota 2 para 1.1)

quantidades da mesma espécie quantidades que podem ser colocadas em ordem de magnitude relativa a uma outra. NOTAS 1. Quantidades da mesma espécie dentro de um dado sistema de quantidades devem ter a

mesma dimensão. 2. A subdivisão de quantidades em quantidades da mesma espécie é de algum modo arbitrário.

Por exemplo, momento de força e energia são, por convenção, não consideradas como sendo de mesma espécie, mesmo que elas tenham a mesma dimensão, nem são capacidade de calor e entropia.

EXEMPLOS a) Todos os comprimentos, tais como diâmetros, circunferências e comprimentos de onda,

são geralmente considerados como quantidades da mesma espécie.

Page 210: Metrologia 7a

ISO VIM 2004

4

b) Todas as energias, tais como trabalho, calor, energia cinética e energia potencial, são geralmente consideradas como quantidades da mesma espécie.

1.3. (1.2)

sistema de quantidades conjunto de quantidades juntas com um conjunto de equações não contraditórias relacionando

estas quantidades. NOTA Quantidades ordinais, tais como dureza Rockwell C, são usualmente não consideradas como

parte de um sistema de quantidades porque elas são relacionadas a outras quantidades através de apenas relações empíricas.

1.4.

Sistema Internacional de Quantidades ISQ

sistema de quantidades, junto com as equações relativas às quantidades, em que o SI é

baseado. NOTA Atualmente, o ISQ é publicada na norma internacional ISO 31:1992, Quantidades e Unidades.

1.5. (1.3)

quantidade de base quantidade, escolhida por convenção, usada em um sistema de quantidades para definir outras

quantidades. NOTAS 1. Não existe equações relacionando as quantidades de base de um sistema de quantidades. 2. numero de entidades pode ser considerado como quantidade de base em qualquer

sistema de quantidades. EXEMPLO As quantidades de base correspondendo às unidades de base do Sistema Internacional de

Unidades (SI) são dadas na nota 1.16.

1.6. (1.4)

quantidade derivada quantidade, em um sistema de quantidades, definida como uma função de quantidades base.

Page 211: Metrologia 7a

ISO VIM 2004

5

EXEMPLO Em um sistema de quantidades tendo as quantidades de base comprimento e massa, densidade

de massa é uma quantidade derivada definida como o quociente da massa pelo volume (comprimento elevado à terceira potência).

1.7. (1.5)

dimensão quantidade dimensão de uma quantidade dimensão

dependência de uma dada quantidade sobre as quantidades base de um sistema de quantidades representada pelo produto de potências de fatores correspondendo às quantidades base.

NOTAS

1. A representação simbólica convencional da dimensão de uma quantidade de base é uma única letra maiúscula em romano tipo sem serife. A representação simbólica convencional da dimensão de uma quantidade derivada é o produto de potências das dimensões das quantidades de base de acordo com a definição da quantidade derivada.

2. Quantidades tendo a mesma dimensão são necessariamente quantidades da mesma espécie. 3. Derivando a dimensão de uma quantidade, não considerar qualquer fator numérico, nem seu caráter escalar,

vetorial ou tensorial. 4. A dimensão de uma quantidade de base é geralmente referida como a dimensão base e analogamente, para

uma dimensão derivada.

EXEMPLOS

a) no ISQ, onde L, M e T denotam as dimensões das quantidade comprimento, massa e tempo, a dimensão de força é LMT-2

b) No mesmo sistema de quantidades ML-3 é a dimensão da concentração de massa e também de massa volúmica (densidade de massa).

1.8 (1.6)

quantidade de dimensão um quantidade adimensional

quantidade em que todos os expoentes dos fatores correspondendo às quantidades de base na representação de sua dimensão são zero.

NOTAS

1. Os valores das quantidades de dimensão um são simplesmente números. 2. o termo quantidade adimensional é, por razoes históricas, geralmente usado. Ele aparece do fato que todos

os expoentes são zero, na representação simbólica da dimensão para tais quantidades. Porém, o termo quantidade de dimensão um reflete a convenção em que a representação simbólica da dimensão para tais quantidades é o símbolo 1 (ver ISO 31-0:1992, item 2.2.6).

Page 212: Metrologia 7a

ISO VIM 2004

6

EXEMPLOS: Ângulo plano, ângulo sólido, tensão linear, coeficiente de atrito, índice de refração, fração de

massa, fração de quantidade de substancia, número de Mach, número de Reynolds, degenerência em mecânica quantum, número de enrolamentos em uma bobina, número de moléculas.

1.9. (1.7)

unidade unidade medição unidade de medição

quantidade escalar, definida e adotada por convenção, com a qual outras quantidades da

mesma espécie são comparadas para expressar suas magnitudes. NOTAS 1. unidades são designadas por nomes e símbolos atribuídos por convenção. 2. unidades de quantidades de mesma dimensão podem ser designados pelo mesmo nome e

símbolo, mesmo quando as quantidades não são da mesma espécie. Por exemplo, o joule por kelvin, J/K, é o nome e símbolo tanto da unidade de capacidade de calor como da unidade de entropia, que são geralmente não consideradas quantidades de mesma espécie.

3. unidades de quantidades de dimensão um são simplesmente números. Em laguns casos estes números possuem nomes especiais, e.g., radiando e esterradiano ou são expressos por quocientes, tais como milimole por mole (sic).

1.10 (1.18)

valor quantidade valor de uma quantidade valor

magnitude de uma quantidade representada por um número e uma referência. NOTAS

1. uma quantidade pode ser expressão como: • Um produto de um número e uma unidade ou • Um número para uma quantidade de dimensão um (a unidade é geralmente não

escrita) ou • Uma referencia a um procedimento medição e um número ordinal.

2. um valor quantidade pode ser expresso em mais de um modo. EXEMPLOS

Comprimento de uma dada barra 5.34 m ou 534 cm Massa de um dado corpo 0.152 kg ou 152 g Temperatura Celsius de uma da amostra -5 oC Impedância elétrica de um dado elemento de circuito em uma dada freqüência

(7 + 3j) Ω

Índice de refração de uma dada amostra de vidro 1.52 Dureza Rockwell C de uma dada amostra (carga de 150 kg) HRC (150 kg) 43.5 Fração de massa de cádmio em cobre 3 μg/kg ou 3 x 10-9 Quantidade de substância de Pb++ em água 1.76 mmol/kg

Page 213: Metrologia 7a

ISO VIM 2004

7

1.11 (1.13)

unidade base unidade de medição base

unidade que é convencionalmente e unicamente adotada para uma quantidade base em um

dado sistema de quantidades NOTA Uma unidade base pode também servir para uma quantidade derivada da mesma dimensão.

Por exemplo, queda de chuva, definida como volume árico (volume por área) tem o metro como uma unidade derivada coerente.

EXEMPLO No ISQ, comprimento é uma quantidade base e no SI o metro é a unidade base de comprimento.

O centímetro e o kilômetro são também unidades de comprimento, mas elas não são unidades base no SI.

1.12 (1.14)

unidade derivada unidade para uma quantidade derivada EXEMPLOS Em um sistema de quantidades onde comprimento e tempo são quantidades base, o metro por

segundo, símbolo m/s, o kilômetro por hora, km/h e o knot, igual a uma milha náutica por hora, são unidades derivadas de velocidade.

1.13 (1.10)

unidade derivada coerente unidade derivada que, para um dado sistema de quantidades e para um conjunto escolhido de

unidades base, é um produto de potências de unidades base com o fator de proporcionalidade um NOTAS 1. Coerência pode ser determinada somente com relação a um particular sistema de

quantidades e um dado conjunto de unidades base. Exemplos: se o metro, o segundo e o mol são unidades de base, o metro por segundo é a unidade derivada de velocidade, quando velocidade é definida pela equação quantidade v = dr/dt e o mol por metro cúbico é a unidade derivada coerente de concentração de quantidade de substancia quando concentração de quantidade de substancia é definida pela equação quantidade c = n/V. O kilômetro por hora e o knot, dados como exemplos de unidades derivadas em 1.12, não são unidades coerentes em tal sistema..

2. uma unidade derivada pode ser coerente com relação a um sistema de quantidades mas não para outro.

3. a unidade derivada coerente para cada quantidade de dimensão um em qualquer sistema de quantidades, é o número um, símbolo 1.

1.14 (1.9)

sistema de unidades

Page 214: Metrologia 7a

ISO VIM 2004

8

conjunto convencionalmente selecionado de unidades base e unidades derivadas e também

seus múltiplos e submúltiplos, juntos com um conjunto de regras para seu uso.

1.15 (1.11)

sistema coerente de unidades sistema de unidades, baseado em um dado sistema de quantidades, em que a unidade para

cada quantidade derivada é uma unidade derivada coerente NOTA Um sistema de unidades pode ser coerente somente com relação a unidades base e o sistema

de equações que define as quantidades envolvidas. EXEMPLOS a) O sistema CGS (baseado no centímetro, grama e segundo) em mecânica clássica. b) O Sistema Internacional de Unidades (SI)

1.16 (1.12)

Sistema Internacional de Unidades SI

sistema coerente de unidades, baseado no ISQ, seus nomes e símbolos e uma serie de prefixos

e seus nomes e símbolos, juntos com regras para seu uso, adotado pela Conferencia Geral de Pesos e Medidas (CGPM)

NOTA O SI é baseado nas seguinte sete quantidades e unidades base:

Quantidade base Unidade base Nome nome símbolo comprimento metro m massa kilograma kg tempo segundo s corrente elétrica ampere A temperatura termodinâmica kelvin K quantidade de matéria mole mol intensidade luminosa candela cd

Page 215: Metrologia 7a

ISO VIM 2004

9

1.17 (1.16)

múltiplo de uma unidade unidade formada de uma dada unidade pela multiplicação por um inteiro maior que um EXEMPLOS

a) O kilômetro é um múltiplo decimal do metro. b) A hora é um múltiplo não-decimal do segundo.

1.18 (1.17)

submúltiplo de uma unidade unidade formada de uma dada unidade pela divisão por um inteiro maior que um EXEMPLOS

c) O milímetro é um submúltiplo decimal do metro. d) O segundo arco é um submúltiplo não-decimal do minuto arco.

1.19. (1.20)

valor quantidade convencional valor convencional de uma quantidade valor convencional

valor atribuído por acordo formal para uma quantidade para um dado objetivo EXEMPLOS a) aceleração padrão de queda livre, gn = 9.806 65 m s-2

NOTA aceleração padrão de queda livre era anteriormente chamada de aceleração padrão devida à gravidade.

b) O valor convencional para a constante de Josephson, KJ-90 = 483 597.9 GHz V-1

1.20 (1.21)

valor quantidade numérico valor numérico de uma quantidade valor numérico

número na representação de um valor quantidade NOTA Para quantidades que tenham uma unidade, o valor numérico é frequentemente denotado {Q}

= Q/[Q], onde Q é o símbolo para a quantidade e [Q] é o símbolo para a unidade.

Page 216: Metrologia 7a

ISO VIM 2004

10

1.21

equação quantidade equação relacionando quantidades EXEMPLOS a) Q = ζQ1Q2 ou {Q}[Q] = ζ{Q}[Q1][Q2] ou {Q}[Q] = ζ{Q1}{Q2}[Q1][Q2], onde {Q}, {Q1} e {Q2}

denotam valores numéricos das quantidades Q, Q1 e Q2 expressos em termos de unidades [Q], [Q1] e [Q2] respectivamente e onde ζ é um fator numérico.

b) T = (½)mv2, onde T é a energia cinética, m é a massa, v é a velocidade de uma partícula específica.

c) N = l.t/F, onde n é a quantidade de substância, l é a corrente elétrica, t é a duração e F é a constante de Faraday.

1.22

equação unidade equação relacionando unidades EXEMPLOS a) Q = [Q1][Q2] para a equação quantidade dada no primeiro exemplo de 1.21 sob a condição

que as unidades [Q], [Q1] e [Q2] sejam coerentes. b) J = kg m2 s-2 , onde J, kg, m e s são os símbolos para joule, kilograma, metro e segundo,

respectivamente. c) [ρB] = g/l, onde [ρB] é o símbolo para uma unidade de concentração de massa da

substancia B e g e l são símbolos para a grama e litro.

1.23

equação valor numérico equação valor numérico quantidade

equação relacionando valores quantidade numéricos EXEMPLOS a) Q = ζ{Q}[Q1][Q2] para a equação quantidade dada no primeiro exemplo de 1.21 sob a

condição que as unidades [Q], [Q1] e [Q2] sejam coerentes. b) Na equação para a energia cinética de uma partícula, T = (½)mv2, se m = 2 kg e v = 3 m/s,

de modo que T = 9 J, então 9 = (½) x 2 x 32 é uma equação valor numérico.

1.24

cálculo quantidade formalismo para manipulação algébrica de símbolos representando quantidades. NOTA

Neste formalismo, equações entre quantidades têm a vantagem sobre equações entre valores numéricos de serem independentes da escolha das unidades (ver ISO 31-0:1992, item 2.2.2).

Page 217: Metrologia 7a

ISO VIM 2004

11

1.25

fator de conversão entre unidades relação de duas unidades para quantidades de mesma espécie EXEMPLOS a) km/m = 1000 e assim 1 km = 1000 m b) h/s = 3600 e assim 1 h = 3600 s c) (km/h)/(m/s) = (1/3.6) e assim a 1 km/h = (1/3.6) m/s

1.26

quantidade ordinal quantidade, definida por um procedimento medição convencional, em que a relação total de

ordem com outras quantidades de mesma espécie é definida, mas para a qual nenhuma operação algébrica entre estas quantidades é definida.

NOTAS 1. quantidades ordinais podem entrar somente em relações empíricas e não têm dimensão. 2. quantidades ordinais são arranjadas de acordo com escalas de medição de referência

convencional (ver 2.34). EXEMPLOS a) Dureza Rockewell C. b) Número de octanas para petróleo. c) Severidade de terremoto na escala Richter.

Page 218: Metrologia 7a

ISO VIM 2004

12

Capítulo 2. Medição

2.2 (2.1)

medição processo de obter informação experimentalmente acerca da magnitude de uma quantidade. NOTAS 1. Medição implica um procedimento de medição, baseado em um modelo teórico. 2. Na prática, medição pressupõe um sistema de medição calibrado, possivelmente verificado

subsequentemente.

2.2 (2.2)

metrologia campo do conhecimento relacionado com medição. NOTA Metrologia inclui todos os aspectos teóricos e práticos da medição, qualquer que seja a incerteza

medição e o campo de aplicação.

2.3 (2.6)

mensurando quantidade pretendida a ser medida NOTAS 1. A medição pode mudar o fenômeno, corpo ou substancia sob estudo de modo que a

quantidade que está realmente medida difere do mensurando. Exemplo: a diferença de potencial entre os terminais de uma bateria pode diminuir quando usando um voltímetro com uma condutância interna significativa para executar a medição. A diferença de potencial de circuito aberto pode ser calculada das resistências internas da bateria e do voltímetro.

2. Observar que esta medição diferente daquela no VIM, 2ª. edição, item 2.6 e alguns outros vocabulários, que definem o mensurando como a quantidade sujeita à medição.

3. A descrição de um mensurando requer especificação do estado do fenômeno, corpo ou substância sob estudo.

2.4. (2.3)

princípio de medição fenômeno servindo como a base de uma medição.

NOTA

O princípio de medição pode ser um fenômeno físico, químico ou biológico.

Page 219: Metrologia 7a

ISO VIM 2004

13

EXEMPLOS 2. Efeito termelétrico aplicado à medição de temperatura; 3. Absorção de energia aplicada à medição da concentração de quantidade de substância.

2.5. (2.4)

método medição método de medição

descrição genérica de uma seqüência lógica de operações usada em uma medição. NOTAS 1. Métodos de medição podem ser qualificados em vários modos, tais como:

• método medição substituição • método medição diferencial • método medição nulo • método medição direta • método medição indireta

Ver IEC 60 050-300:2001 2. Uma medição geralmente requer o uso seqüencial ou paralelo de varias peças de

equipamento ou reagentes ou ambos. Assim, o método de medição consiste de uma apresentação curta da estrutura procedural.

2.6 (2.5)

procedimento de medição descrição detalhada de uma medição de acordo com um ou mais princípios de medição e para

um dado método de medição. NOTA O procedimento de medição é usualmente documentado em detalhe suficiente para permitir um

operador fazer uma medição.

2.7

procedimento medição primária procedimento primário

procedimento medição usado para realizar a definição de uma unidade medição e obter o valor

quantidade e a incerteza medição de um padrão de medição primário. NOTAS 1 CCQM usa o termo método primário direto de medição para este conceito. 2 Definições de dois conceitos subordinados, que poderiam ser chamados de procedimento de

medição de referência primário direto e procedimento de medição referência primário são dados por CCQM (5º Meeting, 1999).

Page 220: Metrologia 7a

ISO VIM 2004

14

2.8

escala medição conjunto ordenado de valores de quantidades de uma dada espécie, contínuo ou discreto, usado

para arranjar quantidades de mesma espécie por magnitude. 2.9 (1.22)

escala medição referência convencional escala referência convencional

escala medição, definido por acordo geral NOTAS 1 Uma escala referência convencional pode ser estabelecida por medições de acordo com um

procedimento de medição 2 Quantidades ordinais são arranjadas de acordo com escalas de referência convencionais (ver

1.26) EXEMPLOS a) Escala de dureza Rockwell C b) Escala pH em química c) Escala de número de octanas para petróleo d) Escala de Temperatura Internacional de 1990 (ITS-90)

2.10 (3.1)

resultado medição resultado da medição

informação acerca da magnitude de uma quantidade, obtida experimentalmente. NOTAS 1 A informação consiste de um conjunto de valores quantidade razoavelmente sendo atribuídos

ao mensurando, usualmente sumarizado como um valor quantidade único e uma incerteza medição. O valor quantidade único é uma estimativa, geralmente uma medida ou a mediana do conjunto.

2 Se o mensurando é considerado ser suficientemente bem descrito por um valor de quantidade único (ver GUM, 1993, 1.2), é prática comum ter o termo resultado medição incluindo somente o valor estimado. A incerteza medição associado com este resultado medição é então expresso separadamente.

3 Se a incerteza medição é considerada desprezível para algum objetivo, a informação pode ser reduzida a um valor de quantidade único. Em muitos campos, este é o modo mais comum de expressar um resultado medição.

Page 221: Metrologia 7a

ISO VIM 2004

15

2.11 (3.9)

incerteza medição incerteza da medição incerteza

parâmetro que caracteriza a dispersão dos valores quantidade que estão sendo atribuídos a

um mensurando, baseado na informação usada.

NOTAS 1 Incerteza medição caracteriza quantitativamente o conhecimento acerca do

mensurando, baseado na informação usada. 2 A incerteza medição caracteriza a dispersão de um conjunto ou distribuição de

valores quantidade para o mensurando, obtido pela informação disponível. A dispersão é devida a incerteza definicional do mensurando e dos efeitos aleatórios e sistemáticos na medição

3 Se um único valor quantidade como uma estimativa do mensurando é alterado, a incerteza medição associada pode também alterar.

4 O parâmetro pode ser, por exemplo, um desvio padrão chamado incerteza medição padrão (ou um dado múltiplo dele) ou a meia largura de um intervalo, tendo uma probabilidade de cobertura estabelecida

5 A incerteza medição compreende, em geral, muitos componentes. Alguns destes componentes podem ser avaliados pela avaliação Tipo A da incerteza medição da distribuição estatística dos valores quantidade de séries de medições e podem ser caracterizados por desvios padrão experimentais. Os outros componentes que podem ser avaliados pela avaliação Tipo B da incerteza medição, podem também ser caracterizados por desvios padrão, avaliados de distribuições de probabilidade assumidas baseadas na experiência ou em outras informações.

6 É entendido que o valor quantidade de um resultado medição é a melhor estimativa do valor do mensurando (ver Nota 2 de 2.10) e que todos os componentes da incerteza medição, incluindo os que aparecem de efeitos sistemáticos, tais como os componentes associados com correções e os valores atribuídos de padrões medição, contribuem para a dispersão.

7 Dependendo do uso pretendido, uma incerteza medição expandida de um resultado medição pode ser dada com um fator de cobertura estabelecido, dando um intervalo de cobertura que contenha o valor do mensurando com alta probabilidade ou inclui uma fração grande estabelecida dos valores dispersos da quantidade que estão sendo atribuídos ao mensurando.

2.12

incerteza medição definicional incerteza definicional

componente da incerteza medição resultando da quantidade inerentemente finita de detalhes na

definição de um mensurando. NOTAS 1 Qualquer mudança no detalhe descritivo de um mensurando, através da mudança

correspondente na função medição, produz um novo mensurando tendo uma nova incerteza medição definicional.

2 Definir o mensurando é o primeiro passo de qualquer procedimento medição. A incerteza definicional que segue pode assim ser considerada como parte da incerteza medição.

3 A incerteza definicional é um limite inferior da incerteza medição (ver GUM).

2.13

Page 222: Metrologia 7a

ISO VIM 2004

16

avaliação Tipo A da incerteza medição avaliação Tipo A

método de avaliação de um componente de incerteza medição por uma análise estatística de

valores quantidade obtidos por medições sob condições de repetitividade. NOTA Para informação acerca da análise estatística, ver GUM.

2.14

avaliação Tipo B da incerteza medição avaliação Tipo B

método de avaliação de um componente de incerteza medição por meio que não seja a análise

estatística de valores quantidade obtidos por medições sob condições de repetitividade. EXEMPLOS O componente da incerteza medição pode ser:

• associado com os valores quantidade publicados • associado com o valor quantidade de um material referência certificada • obtido de um certificado de calibração e incorporação de desvio • obtido da classe de exatidão de um instrumento medição verificado • obtido de limites deduzidos através de experiência pessoal

2.15

incerteza medição padrão incerteza da medição padrão incerteza padrão

incerteza medição expressa como um desvio padrão. NOTA

Geralmente a incerteza medição padrão caracterizando um resultado medição é obtida tomando em conta as incertezas medição padrão e covariâncias das quantidades de entrada da função medição. Esta incerteza medição padrão é chamada incerteza padrão combinada no GUM.

Page 223: Metrologia 7a

ISO VIM 2004

17

2.16

Incerteza medição padrão combinada Incerteza padrão combinada

incerteza medição padrão do resultado medição quando este resultado é obtido dos valores de

um número de outras quantidades, igual à raiz quadrada positiva da soma dos termos, os termos sendo as variâncias ou covariâncias dos valores destas outras quantidades ponderadas de acordo como o resultado da medição varia com alterações nestas quantidades.

2.17

fator cobertura número pelo qual uma incerteza medição padrão de um resultado medição é multiplicado para

obter uma incerteza medição expandida.

2.18

incerteza medição expandida incerteza expandida

meia-largura de um intervalo de cobertura simétrico, centrado em torno da estimativa de uma

quantidade, com uma determinada probabilidade de cobertura. NOTAS 1 Incerteza medição expandida é definida somente para funções de densidade probabilidade

simétrica unimodal. 2 Incerteza medição expandida é chamada incerteza total no parágrafo 5 da Recomendação

INC-1 (1980) 3 Na prática, incerteza medição expandida é usualmente um múltiplo estabelecido da

incerteza medição padrão de um resultado medição.

2.19

intervalo cobertura intervalo de valores que podem ser atribuídos para uma quantidade e, baseado na informação

disponível, é associado com uma alta probabilidade estabelecida.

2.20

probabilidade cobertura probabilidade associada com um intervalo cobertura NOTA A probabilidade cobertura é geralmente chamada de nível de confiança (ver GUM).

Page 224: Metrologia 7a

ISO VIM 2004

18

2.21

incerteza medição alvo incerteza alvo

incerteza medição formulada como um objetivo e decida na base de um uso pretendido

específico de resultados de medição.

2.22 (6.11)

calibração de um sistema medição calibração

definição (a) operação estabelecendo a relação entre valores quantidade fornecidos por padrões medição e

as correspondentes indicações de um sistema de medição, feitas sob condições especificadas e incluindo avaliação da incerteza medição.

definição (b) operação que estabelece a relação, obtida pela referência a um ou mais padrões de medição,

que existe sob condições especificadas, entre a indicação de um sistema de medição e o resultado medição que seria obtida usando o sistema de medição.

NOTAS 1 As relações referidas nas definições (a) e (b) podem ser expressas por diagramas de

calibração, funções de calibração ou tabelas de calibração. 2 Definicao (b) é consistente com a definição de calibração em IEC 60 050-300, item 311-01-

09. 3 Ver Nota para 2.28 referente a verificação.

2.23

hierarquia calibração seqüência de calibrações de sistemas de medição entre uma referência metrológica

estabelecida e o sistema medição final. NOTAS 1 Os elementos de uma hierarquia de calibração são um ou mais padrões de medição

(calibradores) e sistemas medição operados de acordo com os procedimentos de medição.

2 Por esta definição, a referência metrológica estabelecida pode ser uma definição de uma unidade medição através de sua realização prática ou um procedimento de medição ou padrão medição.

3 Se a referência metrológica de uma hierarquia de calibração é um padrão medição, é sempre um padrão de medição primária.

Page 225: Metrologia 7a

ISO VIM 2004

19

2.24 (6.10)

rastreabilidade metrológica propriedade de um resultado medição relacionando o resultado de um referência metrológica

estabelecida através de uma cadeia ininterrupta de calibrações de um sistema medição ou comparações, cada uma contribuindo para a incerteza medição estabelecida.

NOTAS 1 Para esta definição, uma referência metrológica estabelecida pode ser uma definição de uma

unidade medição através de sua realização prática ou um procedimento medição ou um padrão medição.

2 Um pré-requisito para a rastreabilidade metrológica é uma hierarquia de calibração previamente estabelecida.

3 Especificação da referência metrológica estabelecida deve incluir o tempo em que a esta referência foi usada quando estabelecendo a hierarquia de calibração.

4 O termo abreviado rastreabilidade é geralmente usado para rastreabilidade metrológica bem como para outros conceitos, tais como rastreabilidade de amostra ou rastreabilidade de documento ou rastreabilidade de instrumento, onde a história (rastro) de um item está entendida. Assim, o termo completo deve ser preferido.

5 Para medições com mais de uma quantidade de entrada para a função medição, cada quantidade de entrada deve em si ser rastreável metrologicamente.

2.25

Cadeia de rastreabilidade metrológica Cadeia de sistemas de medição alternativos com procedimentos de medição associados e

padrões de medição, de um resultado de medição para uma referência metrológica estabelecida NOTA

Uma cadeia de rastreabilidade metrológica é definida através de uma hierarquia de calibração do resultado da medição para uma referência metrológica estabelecida.

2.26

rastreabilidade metrológica a uma unidade de medição rastreabilidade metrológica a uma unidade

rastreabilidade metrológica a um resultado de medição para a definição de uma unidade de

medição através de uma cadeia de rastreabilidade metrológica estabelecida NOTA

A frase rastreabilidade ao SI é geralmente usada; ela significa rastreabilidade metrológica a uma unidade do Sistema Internacional de Unidades (SI).

Page 226: Metrologia 7a

ISO VIM 2004

20

2.27

verificação confirmação através de exame de um dado item e provisão de evidência objetiva que ele satisfaz

exigências específicas [modificado da ISO 9000:2000, item 3.8.4] NOTA

Verificação não deve ser confundida com calibração de um sistema medição ou vice-versa. EXEMPLOS a) Demonstração que um dado material de referência quando assumido como homogêneo

para amostras tendo uma massa de 10 mg para a quantidade e o procedimento de medição correspondente.

b) Demonstração que as propriedades de desempenho estabelecido de um sistema de medição são conseguidas.

2.28

validação confirmação através do exame de um dado item ou provisão de evidencia objetiva que ele satisfaz

as exigências para um uso pretendido estabelecido [modificado da ISO 9000:2000, item 3.8.5] EXEMPLO

Um procedimento de medição, normalmente usado para a medição de concentração de nitrogênio em água, pode ser validado também para a medição de concentração de nitrogênio no serum humano.

2.29

comparabilidade de resultados de medição comparabilidade

propriedade de resultados de medição possibilitando que eles sejam comparados porque eles

são metrologicamente rastreáveis à mesma referência metrológica estabelecida. NOTA

Comparabilidade não necessita que os valores da quantidade comparados sejam da mesma ordem de grandeza. EXEMPLOS a) Resultados de medição, para as distâncias da Terra a Lua e de Paris a Londres, são

comparáveis, quando (que é a maioria dos casos) elas são metrologicamente rastreáveis à mesma unidade, por exemplo, o metro.

b) Resultados de medição para concentrações de quantidade de substância de um nível normal e um perigoso de colesterol no serum humano são comparáveis quando elas são ambas metrologicamente rastreáveis à mesma unidade, por exemplo, mole por litro.

2.30

compatibilidade de resultados de medição compatibilidade

Page 227: Metrologia 7a

ISO VIM 2004

21

propriedade satisfeita por todos os resultados de medição da mesma quantidade,

caracterizados por uma superposição adequada de seus correspondentes conjuntos de valores de quantidade.

NOTA

Ver IEC 60 050-300:2001, item 311-01-14

2.31

quantidade de influência quantidade que, em uma medição direta, não é nem o mensurando nem a quantidade sendo

medida, mas cuja variação afeta a relação entre a indicação do sistema de medição e o resultado da medição possibilitando que eles sejam comparados porque eles são metrologicamente rastreáveis à mesma referência metrológica estabelecida.

NOTAS 1. Definição de medição direta pode ser encontrada em IEC 60 050-300:2001. 2. No GUM, o termo quantidade de influência cobre tanto o sentido dado na definição acima

como o de uma quantidade que não é o mensurando mas que afeta o resultado da medição. 3. Uma medição indireta envolve uma combinação de medições diretas, cada uma que pode ser

afetada por quantidades de influência. EXEMPLOS a) Freqüência na medição da amplitude uma corrente alternada. b) Temperatura de um micrometro usado para a medição do comprimento de uma barra, mas

não a temperatura da barra em si. c) Temperatura na medição de pH. d) Pressão de fundo na fonte de ferro de um espectrômetro de massa durante a medição de

fração de quantidade de substância.

2.32 (3.14)

correção modificação aplicada a um valor quantidade obtido da medição, para compensar um efeito

sistemático. NOTAS 1. Ver GUM 3.2.3 (1995) para explicação de efeito sistemático. 2. A correção pode ter formas diferentes, tais como um adendo ou um fator multiplicativo.

Page 228: Metrologia 7a

ISO VIM 2004

22

2.33

função medição função expressando a relação matemática entre um ou mais mensurandos e a quantidade ou

quantidades que devem ser medidas ou cujos valores podem ser obtidos de outro modo, para calcular um valor de cada mensurando.

NOTA

A função de medição geral, f, para um único mensurando, Y, pode ser expressão como Y = f(X1, X2, ..., Xn) onde X1, X2 e X3 são as quantidades entradas para a função medição, como explicado no GUM (4.1).

2.34

quantidade entrada para uma função medição quantidade que deve ser medida, ou cujo valor pode ser obtido de outro modo, para calcular um

valor de um mensurando como uma saída de uma função medição. NOTA

Indicações de um sistema medição, correções e quantidades de influência são quantidades entradas para uma função medição. EXEMPLOS a) Temperatura de uma barra cujo comprimento está sendo medido e seu coeficiente termal de

expansão. b) Massa e volume, quando medindo massa volúmica (densidade massa) pela medição

indireta.

2.35

precisão medição precisão

proximidade de concordância entre valores quantidade obtidos por medições replicadas de uma

quantidade, sob condições específicas NOTA

Precisão medição é usualmente expressa numericamente por meio de imprecisão, tal como desvio padrão, variância ou coeficiente de variação sob condições específicas de medição.

2.36 (3.6 Nota 2)

condição repetitividade da medição condição repetitividade

condição de medição em um conjunto de condições incluindo o mesmo procedimento medição,

mesmo operador, mesmo sistema medição, mesmas condições operação e mesmo local e medições replicadas durante um curto período de tempo.

2.37

Page 229: Metrologia 7a

ISO VIM 2004

23

repetitividade da medição repetitividade

precisão medição sob condições de repetitividade de medição

2.38

condição precisão intermediária da medição condição precisão intermediária

condição de medição em um conjunto de condições incluindo o mesmo procedimento medição,

mesmo operador, mesmo sistema medição, mesmas condições operação e mesmo local e medições replicadas durante um longo período de tempo.

NOTAS

1 Mudanças dentro de um dado tipo de calibração, operador e sistema de medição são permitidas

2 Uma especificação deve conter as condições alteradas e inalteradas, para a prática estendida.

2.39

precisão intermediária da medição precisão intermediária

precisão medição sob condições de precisão intermediaria de medição

2.40 (3.7 Nota 2)

condição reprodutibilidade da medição condição reprodutibilidade

condição de medição em um conjunto de condições incluindo diferentes locais, operadores e

sistemas medição. NOTAS

1 Os diferentes sistemas medição podem usar diferentes procedimentos medição. 2 Uma especificação deve dar as condições alteradas e inalteradas, para a prática

estendida.

2.41 (3.7)

reprodutibilidade da medição reprodutibilidade

precisão medição sob condições de reprodutibilidade de medição

2.42 (definição preliminar)

seletividade de um sistema medição seletividade

Page 230: Metrologia 7a

ISO VIM 2004

24

<química> capacidade de um sistema medição, usando um procedimento medição, para

fornecer resultados de medição para duas ou mais quantidades de mesma espécie envolvendo componentes diferentes em um sistema sob medição, sem interferência de cada outro ou de outras quantidades no mesmo sistema.

EXEMPLO

Capacidade de um espectrômetro de massa medir duas correntes de íon especificadas em um espectro de massa sem nenhuma ser perturbada pela presença de outras quantidades.

<física> capacidade de um sistema medição fornecer um resultado medição para uma dada

quantidade na presença de outras quantidades da mesma espécie no sistema sob medição. EXEMPLOS

a) Capacidade de um sistema medição medir a potência de um sinal componente em uma dada freqüência sem ser perturbado pelos sinais componentes ou outros sinais em outras freqüências.

b) Capacidade de um receptor discriminar entre um sinal desejado e sinais indesejados, geralmente tendo freqüências levemente diferentes da freqüência do sinal desejado.

c) Capacidade de um detector de radiação de ionização responder a radiação a ser medida na presença de radiação concomitante

NOTA Seletividade usada em física é um conceito próximo a especificidade usada em química.

2.43 (definição preliminar)

especificidade de um sistema medição especificidade

<química> capacidade de um sistema medição, usando um específico procedimento medição,

para fornecer um resultado medição para uma quantidade envolvendo um componente específico em um sistema sob medição, sem interferência outros componentes no mesmo sistema.

EXEMPLOS

a) Capacidade de um espectrômetro de massa medir a corrente elétrica gerada por uma substância íon específica em um espectro de massa, sem ser perturbado por qualquer outra fonte de corrente elétrica.

b) Capacidade de um espectrômetro de massa medir a abundância de quantidade de substância do isótopo 28Si.

NOTA

Um conceito próximo de especificidade usado em química é seletividade usado em física.

Page 231: Metrologia 7a

ISO VIM 2004

25

Capítulo 3: Equipamentos para medição

Este capítulo define somente uma seleção de conceitos importantes. Conceitos adicionais são encontrados na norma IEC 60 050.

3.1 (4.1)

instrumento de medição equipamento ou combinação de equipamentos projetados para medição de quantidades.

3.2 (4.2)

medida material equipamento reproduzindo ou fornecendo, de um modo permanente durante seu uso,

quantidades de dadas espécies, cada uma com um valor atribuído. EXEMPLOS Um peso. Uma medida de volume (fornecendo um ou vários valores, com ou sem uma escala de medição). Um resistor elétrico padrão. Um escala linear (régua). Um bloco padrão. Um gerador de sinal padrão. Um material de referência.

3.3 (4.3)

transdutor de medição equipamento que fornece em sua saída uma quantidade tendo uma determinada relação com a

quantidade em sua entrada. EXEMPLOS Termopar. Transformador de corrente Célula extensiométrica. Eletrodo de pH. Tubo Bourdon. Tira bimetálica.

3.4 (4.4)

cadeia de medição série de elementos de um sistema de medição constituindo um único caminho do sinal de

medição. EXEMPLO

Page 232: Metrologia 7a

ISO VIM 2004

26

Uma cadeia eletro-acústica constituída de um microfone, atenuador, filtro, amplicador e voltímetro.

3.5 (4.5)

sistema medidor sistema de medição

conjunto de instrumentos de medição e outros equipamentos ou substâncias associadas e

adaptadas para a medição de quantidades de espécies específicas dentro de intervalos específicos de valores.

NOTA

A substância pode ser um reagente químico.

3.6 (4.6)

instrumento indicador de medição instrumento de medição fornecendo um sinal de saída contendo informação acerca do valor da

quantidade a ser medida. NOTAS Ver Notas para 4.1. Um instrumento indicador de medição pode fornecer um registro da indicação que ele fornece. A indicação pode ser fornecida em forma visual ou transmitida para outro equipamento.

3.7 (4.12)

equipamento mostrador (display) equipamento fornecendo a indicação de um sistema de medição na forma visual. NOTAS

Um equipamento mostrador pode ser o equipamento pelo qual o valor quantidade fornecido por uma medida material é mostrado ou estabelecido.

3.8 (4.14)

sensor elemento de um sistema de medição que é diretamente afetado pelo fenômeno, corpo ou

substância portando a quantidade a ser medida. NOTAS

Em alguns campos, o termo detector é usado para este conceito.

EXEMPLOS Junção de medição de um termômetro termoelétrico. Rotor de uma turbina medidora de vazão. Tubo Bourdon de um manômetro.

Page 233: Metrologia 7a

ISO VIM 2004

27

Bóia de um instrumento medidor de nível. Fotocélula de um espectrofotômetro. Cristal liquido termotrópico que muda cor em função da temperatura.

3.9 (4.15)

detector equipamento ou substância que indica a presença de um fenômeno, corpo ou substância quando

um valor limite de uma quantidade associada é excedido. NOTAS a) Em alguns campos, o termo detector é usado para o conceito de sensor. b) Em química, o termo indicador é frequentemente usado para este conceito.

EXEMPLOS a) Detector de vazamento de halogênio. b) Papel Litmus.

3.10 (4.17)

escala de um equipamento mostrador escala

parte de um equipamento mostrador consistindo de um conjunto ordenado de marcas, junto com quaisquer números associados ou valores quantidade.

NOTA

Termos e definições relacionados podem ser encontrados na IEC 60 050-300, Parte 314

3.11 (4.30)

ajuste de um sistema medidor ajuste

conjunto de operações executadas em um sistema medidor para que ele forneça indicações prescritas correspondendo a dados valores da quantidade a ser medida.

NOTA

Ajuste de um sistema medidor não deve ser confundido com calibração de um sistema medidor.

3.12

ajuste de zero de um sistema medidor ajuste de zero

ajuste de um sistema medidor fornecendo uma indicação nula correspondendo ao valor nulo

da quantidade a ser medida.

Page 234: Metrologia 7a

ISO VIM 2004

28

Capítulo 4: Características dos sistemas de medição

4.1 (3.2)

indicação de um sistema de medição indicação

valor quantidade fornecido como a saída de um sistema medidor. NOTAS 1. A indicação é dada pela posição no display para saídas analógicas, o número mostrado para

saídas digitais, o código para saídas em código, o valor nominal ou estabelecido para medidas materiais.

2. A indicação e o valor da quantidade sendo medida não são necessariamente valores de quantidades da mesma espécie.

4.2 (4.19)

intervalo de indicação conjunto de valores quantidade limitado pelas indicações de um sistema de medição possíveis

e extremas. NOTAS

1. Um intervalo de indicação é usualmente expresso em termos de seus valores de quantidade menor e maior, por exemplo, 99 V a 201 V.

2. Em alguns campos, o termo é faixa de indicações.

4.3 (5.1)

intervalo de indicação nominal intervalo nominal

conjunto de valores quantidade, limitado pelas indicações extremas aproximadas ou arredondas

obtidas com um ajuste particular dos controles de um sistema de medição e usado para designar este ajuste

NOTAS 1. Um intervalo nominal é usualmente expresso por seus valores de quantidade maior e menor,

por exemplo, 100 V a 200 V. Onde um dos valores de quantidade extremo é zero, o intervalo nominal é geralmente expresso somente pelo valor quantidade maior, por exemplo um intervalo nominal de 0 V a 100 V é expresso como 100 V.

2. Em alguns campos, o termo é faixa nominal.

Page 235: Metrologia 7a

ISO VIM 2004

29

4.4 (5.2)

amplitude de faixa de um intervalo nominal amplitude de faixa

valor absoluto da diferença entre os valores quantidade extremos de um intervalo nominal de

indicação. EXEMPLO Para um intervalo nominal de -10 V a +10 V, a amplitude de faixa é de 20 V.

4.5 (5.3)

valor nominal quantidade valor nominal

valor quantidade arredondado ou aproximado de uma característica de um sistema medição que

fornece um guia para seu uso. EXEMPLOS 1. 100 Ω como o valor quantidade marcado em um resistor padrão 2. 100 cL como o valor marcado em um frasco volumétrico de simples marca. 3. 0,1 mol/l como o valor para concentração de quantidade de substância de uma solução de

ácido clorídrico, HCl. 4. 25 oC como o ponto de ajuste de um banho controlado de temperatura. 5. 40 oC como a máxima temperatura de armazenamento.

4.6 (5.4)

intervalo de medição intervalo de trabalho

conjunto de valores quantidades da mesma espécie que pode ser medida por um dado sistema

de medição, com especificada incerteza medição sob condições definidas. NOTA

Em alguns campos, o termo é faixa de medição..

4.7

condição de regime permanente para um sistema de medição condição de regime permanente

condição de operação de um sistema de medição em que a variação possível com o tempo da

quantidade sendo medida é tal que uma calibração do sistema de medição feita com um mensurando constante com o tempo permanece válido.

Page 236: Metrologia 7a

ISO VIM 2004

30

4.8 (5.5)

condição de operação especificada para um sistema medição condição de operação especificada

condição que deve ser satisfeita durante a medição para que um sistema de medição tenha o

desempenho projetado. NOTA

A condição de operação especificada geralmente determina intervalos de valores para a quantidade sendo medida e para qualquer quantidade influência.

4.9 (5.6)

condição limite para um sistema medição condição limite

condição extrema que um sistema de medição é requerido suportar sem dano e sem degradação

das características metrológicas especificadas quando ele é subsequentemente operado sob suas condições de operação especificadas.

NOTAS

1. As condições limites para armazenamento, transporte e operação podem ser diferentes. 2. As condições limites podem incluir valores limites da quantidade sendo medida e para

qualquer quantidade influência.

4.10 (5.7)

condição referência para um sistema medição condição referência

condição de uso prescrita para avaliar o desempenho de um sistema de medição ou para

comparação de resultados de medição. NOTAS

1. As condições de referência geralmente especificam intervalos de valores para toda quantidade influência.

2. Na IEC 60 050-300, item 311-06-02, este termo é usado para um conceito relacionado com condição ótima.

4.11

condição ótima para um sistema medição condição ótima

condição de uso para um sistema de medição, sob a qual sua contribuição para a incerteza

medição é mínima.

Page 237: Metrologia 7a

ISO VIM 2004

31

NOTA Na IEC 60 050-300, item 311-06-02, este termo é chamado de condições de referência.

4.12 (5.10)

sensitividade de um sistema de medição sensitividade

quociente da variação na indicação de um sistema de medição e a correspondente variação no

valor da quantidade sendo medida. NOTAS

1. A sensitividade pode depender do valor da quantidade sendo medida. 2. A variação considerada no valor da quantidade sendo medido deve ser grande

comparado com a resolução do sistema de medição.

4.13

resolução de um sistema medição menor variação no valor da quantidade sendo medida por um sistema de medição que causa

uma variação perceptível no indicação correspondente. NOTA

A resolução de um sistema de medição pode depender, por exemplo, do ruído (interno ou externo) ou atrito. Ele pode também depender do valor da quantidade sendo medida.

4.14 (5.12)

resolução de um instrumento mostrador menor diferença entre indicações de um instrumento mostrador que pode ser

significativamente distinguida.

4.15 (5.11)

limite de discriminação maior variação no valor da quantidade sendo medida por um sistema de medição que não

causa uma variação perceptível no indicação correspondente. NOTA

O limite de discriminação de um sistema de medição pode depender, por exemplo, do ruído (interno ou externo) ou atrito. Ele pode também depender do valor da quantidade sendo medida.

Page 238: Metrologia 7a

ISO VIM 2004

32

4.16 (5.13)

banda morta de um sistema de medição banda morta

máximo intervalo através do qual o valor da quantidade sendo medida por um sistema de

medição pode ser variado em ambas as direções sem produzir uma variação detectável na indicação correspondente.

NOTA

A banda morta pode depender da taxa de variação.

4.17 (5.14)

estabilidade de um sistema de medição estabilidade

habilidade de um sistema de medição manter constantes suas características metrológicas com

o tempo.

4.18 (5.16)

desvio de um sistema de medição desvio (drift)

variação na indicação de um sistema de medição, geralmente lenta e contínua, relacionada

nem com variação na quantidade sendo medida nem com a variação de uma quantidade de influência.

NOTA Para uma medida material, o desvio é uma variação do valor da quantidade fornecida

que não é devida à variação de uma quantidade influência.

4.19

variação devida a uma quantidade influência diferença entre as indicações de um sistema de medição para o mesmo valor da quantidade

sendo medida quando uma quantidade influência assume, sucessivamente, dois valores diferentes. NOTA

Para uma medida material, a variação devida a uma quantidade influência é a diferença entre os valores da quantidade fornecida quando a quantidade influência assume dois valores diferentes.

Page 239: Metrologia 7a

ISO VIM 2004

33

4.20 (5.17)

resposta no tempo a um degrau de um sistema de medição resposta no tempo a um degrau

duração entre o instante em que um valor quantidade na entrada de um sistema de medição é

submetida a uma variação tipo degrau entre dois estados permanentes específicos e o instante quando a indicação correspondente fica dentro de limites especificados em torno de seu valor permanente final.

4.21

incerteza instrumental componente da incerteza medição atribuída a um instrumento de medição e determinado por

sua calibração. NOTAS

1. A incerteza instrumental é usada como um componente da incerteza medição em uma avaliação subseqüente Tipo B.

2. Esta definição é consistente com a terminologia IEC, por exemplo, IEC 60 050-300, item 311-03-09.

3. Incerteza instrumental é útil quando o instrumento de medição é usado para fazer uma única medição, porém, deve-se tomar cuidado para nem superestimar ou subestimar a incerteza medição quando são feitas medições repetidas.

4.23

classe exatidão <enfoque incerteza> classe de instrumentos de medição que satisfazem exigências

metrológicas estabelecidas que são pretendidas manter a incerteza instrumental dentro de limites especificados sob condições de operação especificadas.

NOTA

Conceitos associados são classe exatidão <enfoque clássico> e exatidão da medição.

Page 240: Metrologia 7a

ISO VIM 2004

34

Capítulo 5: Padrões de medição, etalon

Em ciência e tecnologia, a palavra padrão é usada com dois diferentes significados:

1. como uma norma escrita adotada largamente, especificação, recomendação técnica ou documento similar (francês: norme)

2. como um padrão de medição (francês: étalon) Neste Vocabulário, padrão se relaciona somente com o segundo significado, padrão de medição.

5.1 (6.1)

padrão medição padrão etalon

realização da definição de uma dada quantidade, com valor e incerteza medição estabelecidos,

usada como uma referência. NOTAS

1. A realização da definição de uma dada quantidade pode consistir de um sistema de medição, uma medida material ou um material referência.

2. Um padrão de medição é freqüentemente usado como uma referência para atribuir resultados medição a outras quantidades de mesma espécie.

3. Em muitos casos, padrões medição são realizações da definição de uma unidade. 4. A incerteza medição estabelecida de um padrão medição pode ser dada ou como uma

incerteza medição padrão ou uma incerteza medição expandida com um fator cobertura.

5. A incerteza medição padrão de um padrão medição é sempre um componente da incerteza padrão combinada (ver Nota par 2.15) associada com um resultado medição obtido usando o padrão medição. Frequentemente, este componente é pequeno, comparado com outros componentes da incerteza padrão combinada.

6. Várias quantidades da mesma espécie ou de espécies diferentes podem ser realizadas em um equipamento que é comumente chamado de padrão medição.

7. As palavras incorporar e realizar podem ter o mesmo significado. EXEMPLOS

1. 1 kg padrão massa 2. 100 Ω resistor padrão 3. Amperímetro padrão 4. Césio padrão freqüência 5. Eletrodo hidrogênio padrão 6. Conjunto de soluções referência de cortisol em serum humano tendo concentrações

certificadas 7. Material referência fornecendo valores certificados com incertezas medição para a

concentração massa de cada uma de dez proteínas diferentes

Page 241: Metrologia 7a

ISO VIM 2004

35

5.2 (6.3)

padrão medição nacional padrão nacional

padrão medição designado como uma referência metrológica estabelecida nacionalmente.

5.3 (6.4)

padrão medição primário padrão primário

padrão medição cujo valor quantidade e incerteza medição são estabelecidos sem relação a

outro padrão medição para uma quantidade de mesma espécie. NOTAS

1. Esta definição implica que o estabelecimento de um padrão medição primário deve ser referir a definição de qualquer unidade relativa, principalmente uma unidade SI.

2. O primeiro padrão medição de uma hierarquia calibração é sempre um padrão medição primário.

3. Ver Nota 6 em 5.1 (padrão medição) EXEMPLOS

1. Padrão medição primário de concentração quantidade de substância preparado pela dissolução de uma quantidade conhecida de substância de um componente químico para um volume de solução conhecido.

2. Padrão medição primário para pressão baseado nas medições separadas de força e área.

3. Padrão medição primário para medições de relação de quantidade de substância de isótopo, preparado pela mistura de quantidade de substâncias conhecidas de isótopos específicos.

5.4 (6.5)

padrão medição secundário padrão secundário

padrão medição cujo valor quantidade e incerteza medição são estabelecidos através

calibração contra ou comparando com um padrão medição primário para uma quantidade de mesma espécie.

NOTAS

1. A relação pode ser obtida diretamente entre o padrão medição primário e o padrão medição secundário, ou envolver um sistema medição intermediário calibrado por um padrão primário e atribuindo um resultado medição para o padrão secundário.

2. Um padrão medição tendo seu valor quantidade atribuído por uma relação do procedimento medição primário é um padrão medição secundário.

5.5 (6.6)

padrão medição referência padrão referência

Page 242: Metrologia 7a

ISO VIM 2004

36

padrão medição usado para a calibração de padrões medição de trabalho em uma dada organização ou em um dado local.

5.6 (6.7)

padrão medição de trabalho padrão de trabalho

padrão medição que é usado rotineiramente para calibrar, verificar ou checar sistemas de

medição, medidas materiais ou materiais referência NOTA Um padrão medição de trabalho é usualmente calibrado com um padrão medição de referência.

5.7 (6.9)

padrão medição de viagem padrões de viagem

padrão medição, às vezes de construção especial, pretentido para ser transportado entre

diferentes locais. EXEMPLO Um padrão de freqüência de Césio133 portátil, operado a bateria.

5.8 (6.8)

equipamento medição de transferência equipamento de transferência

equipamento medição usado como um intermediário para comparar padrões medição. NOTA Um padrão medição de trabalho é usualmente calibrado com um padrão medição de referência.

5.9

padrão medição intrínseco padrões intrínseco

padrão medição baseado em uma propriedades suficientemente estável e reprodutível de um

fenômeno ou substância. NOTAS 1. O valor quantidade de um padrão intrínseco é atribuído por consenso e não precisa ser

estabelecido por sua relação com padrão medição do mesmo tipo. Sua incerteza medição é determinada pela consideração de dois componentes: (A) associado com seu valor quantidade consensado e (B) associado com sua construção, implementação e manutenção.

2. Um padrão intrínseco usualmente consiste de um sistema produzido de acordo com as exigências de um procedimento consensado e sujeito a verificação periódica. O procedimento consensado pode incluir correções necessárias para a implantação.

3. O valor quantidade de um padrão intrínseco pode depender do valor consensado de uma constante fundamental.

4. A estabilidade e reprodubilidade medição de alguns padrões intrínsecos vêm do fato que o fenômeno usado é um fenômeno discreto (quantum).

Page 243: Metrologia 7a

ISO VIM 2004

37

5. O adjetivo intrínseco não significa que este padrão possa ser usado sem cuidado especial ou que este padrão seja imune a efeitos espúrios.

EXEMPLOS 1. Célula de ponto triplo da água como um padrão intrínseco da temperatura termodinâmica. 2. Padrão intrínseco da diferença de potencial elétrico baseado no efeito Josephson. 3. Amostra de cobre como um padrão intrínseco de condutividade elétrica.

5.10 (6.7 NOTA)

equipamento medição de check equipamento de check

equipamento de medição usado rotineiramente para verificar o funcionamento de um sistema

medição.

5.11 (6.12)

conservação de um padrão medição operação ou conjunto de operações necessárias para preservar as propriedades metrológicas de

um padrão medição dentro de limites estabelecidos. NOTA

Conservação geralmente inclui verificação ou calibração periódicas, armazenamento sob condições convenientes e cuidado específico em uso.

5.12

calibrador padrão medição usado na calibração de um sistema medição.

Page 244: Metrologia 7a

ISO VIM 2004

38

5.13 (6.13)

material referência RM

material suficientemente homogêneo e estável com relação a uma ou mais quantidades

específicas usado para a calibração de um sistema medição ou para avaliação de um procedimento medição ou para atribuição de valores e incertezas medição para quantidades de mesma espécie para outros materiais.

NOTAS 1. O termo material referência designa uma família de materiais sem necessariamente implicar

uma hierarquia de acordo com a magnitude da incerteza medição. 2. Material referência significa tanto material controle precisão, que não precisa ter um valor

quantidade atribuído e padrão medição funcionando como material controle verdadeiro ou calibrador.

3. Um material referência pode estar na forma de, por exemplo, um gás puro ou misturado, liquido, sólido ou suspensão.

4. O termo material referência é também usado para materiais realizando propriedades nominais, tais como cor.

EXEMPLOS 1. Água para a calibração de viscosímetros. 2. Safira como um calibrador de capacidade de calor em calorímetro. 3. Serum humano contendo colesterol sem valor quantidade atribuído, usado somente como um

material de controle de precisão. (6.14)

material referência certificada CRM ou MRC

material referência, acompanhado por um certificado autenticado, tendo para cada quantidade

específica um valor, incerteza medição e cadeia rastreabilidade metrológica estabelecida. NOTAS 1. Um certificado deve referir a um protocolo descrevendo o processo de certificação. 2. Uma definição de material referência certificado é dado no ISO Guide 30:1992. 3. materiais referência certificada são geralmente preparados em bateladas. Para uma dada

batelada, valores quantidades e incertezas medição são obtidas por medições em amostras representativas de batelada.

4. Os valores quantidade atribuídos a um material referência certificada são muitas vezes convenientemente e confiavelmente obtidos quando o material é incorporado em um equipamento fabricado especialmente. O valor quantidade é geralmente a saída de um equipamento. Tais equipamentos também podem ser considerados como MRC.

EXEMPLOS a) Substância de ponto triplo conhecido na célula de ponto triplo. b) Um vidro de densidade óptica conhecida em um filtro de transmissão. c) Esferas de tamanho de partícula uniforme montadas em microscópio. d) Uma matriz de junções Josephson.

5. Procedimentos para a produção e certificação de material referência certificada são dadas no ISO Guide 34 e ISO Guide 35.

6. Um material referência certificada fica dentro da definição de padrão medição. 7. Alguns materiais referência e materiais referência certificada têm quantidades que, por que

eles não podem ser correlacionados com uma estrutura química estabelecida ou por outras razoes, não pode ser medido de acordo com procedimentos medição dando resultados medição que são metrologicamente rastreáveis a unidades medição do Sistema Internacional de Unidades (SI) ou outro sistema de unidades. Tais materiais incluem certos materiais biológicos tais como vacinas para a qual Unidades Internacionais (IU) tem sido atribuídos pela Saúde Mundial.

Page 245: Metrologia 7a

ISO VIM 2004

39

5.15

comutabilidade de um material referência propriedade de um dado material referência demonstrada pela proximidade de concordância

entre a relação entre resultados medição, para uma quantidade estabelecida neste material, obtida de acordo com dois dados procedimentos medição e a relação obtida entre os resultados medição para outros materiais específicos.

NOTAS 1. O material em questão é usualmente um calibrador. 2. No mínimo, um de dois dados procedimentos medição é usualmente um procedimento

medição de alto nível.

5.16

dado referência dado que é criticamente avaliado e verificado, obtido de uma fonte identificada e relacionado com

uma propriedade de um fenômeno, corpo, ou substância, ou um sistema de componentes de composição ou estrutura conhecida.

NOTA

Aqui, a palavra dado é usado no sentido singular.

5.17

dado referência padrão dado referência, editado por uma autoridade reconhecida e estabelecida. EXEMPLO

CODATA (1998) valores recomendados das constantes físicas fundamentais.

5.18

valor quantidade referência valor referência

valor quantidade, geralmente aceito como tendo uma incerteza medição convenientemente

pequena, para ser usada como base para comparação com valores de quantidades de mesma espécie.

NOTAS 1. Um valor quantidade referência com incerteza medição associado é usualmente referido

para: • Um material, e.g., material referência certificada • Um equipamento, e.g., laser estabilizado • Um procedimento medição referência.

2. um valor quantidade referência deve ser metrologicamente rastreável.

Page 246: Metrologia 7a

ISO VIM 2004

40

Anexo A: Conceitos do Enfoque Clássico

A1 (1.19)

valor verdadeiro de uma quantidade valor verdadeiro

valor quantidade consistente com a definição de uma quantidade NOTAS 1. Dentro do enfoque clássico, um único valor quantidade é tomado para descrever o

mensurando. O valor verdadeiro seria obtido por uma medição perfeita, isto é, uma medição sem erro de medição. O valor verdadeiro, .por natureza, não pode ser obtido.

2. Devido a incerteza medição definicional, há uma distribuição de valores verdadeiros consistente com a definição de um mensurando. Esta distribuição é, por natureza, não conhecível. O conceito de valor verdadeiro é evitado no Enfoque da Incerteza (D.3.5 no GUM).

A.2 (3.5)

exatidão da medição exatidão (accuracy)

proximidade de concordância entre um valor quantidade obtido por medição e o valor

verdadeiro do mensurando. NOTAS 1. Exatidão não pode ser expressa como um valor numérico. 2. Exatidão é inversamente relacionada aos erro sistemático e erro aleatório. 3. O termo exatidão da medição não deve ser usado para a verdade da medição e o termo

precisão da medição não deve ser usado para exatidão da medição.

A3 (3.5)

exatidão e um sistema de medição exatidão (accuracy)

habilidade de um sistema medição fornecer um valor quantidade próximo ao valor verdadeiro

de um mensurando. NOTAS 1. Exatidão é maior quando o valor quantidade está mais próximo do valor verdadeiro. 2. o termo precisão não deve ser usado como exatidão. 3. O conceito está relacionado com a exatidão da medição.

Page 247: Metrologia 7a

ISO VIM 2004

41

A4

verdade proximidade de concordância entre a media que seria obtida de um número infinito de valores

quantidade obtida sob condições medição especificadas e o valor verdadeiro do mensurando. NOTAS 1. Verdade não pode ser expressa com um valor numérico. 2. Verdade é inversamente relacionado somente com o erro sistemático. 3. O termo verdade da medição não deve ser usado como exatidão da medição.

A5 (3.10)

erro de medição erro

diferença do valor quantidade obtido por medição e o valor verdadeiro do mensurando. NOTAS

É necessário distinguir erro de medição de erro relativo de medição.

A6 (5.20)

erro de indicação diferença da indicação de um sistema medição e o valor verdadeiro do mensurando. NOTAS

No Enfoque Clássico, indicação de um sistema medição e o valor do mensurado são assumidos ser os valores de quantidades de mesma espécie.

A7 (3.13)

erro aleatório de medição erro aleatório

diferença do valor quantidade obtido por medição e a média que seria obtida de um numero

infinito de medições replicadas do mesmo mensurando feita sob condições de repetitividade. NOTAS 1. Erros aleatórios de um conjunto de medições replicadas formam uma distribuição que pode

ser descrita por uma variância, e tem uma expectativa de zero. 2. Erros aleatórios iguais à diferença do erro de medição e erro sistemático da medição.

Page 248: Metrologia 7a

ISO VIM 2004

42

A8 (3.14)

erro sistemático de medição erro sistemático

diferença da média que seria obtida de um número infinito de medições replicadas do mesmo

mensurando feitas sob condições de repetitividade e o valor verdadeiro do mensurando. NOTAS

Erro sistemático e suas causas podem ser conhecidos ou desconhecidos. Correção deve ser aplicada ao erro sistemático sempre que possível.

Erro sistemático é igual à diferença do erro de medição e erro aleatório de medição.

A9 (5.19)

classe de exatidão <Enfoque Clássico> classe de instrumentos medição que satisfazem exigências metrológicas

estabelecidas e que pretendem manter erros de indicação dentro de limites especificados sob condições de operação específicas.

NOTAS 1. Uma classe de exatidão é usualmente denotada por um número ou símbolo adotado por

convenção. 2. Conceitos relativos a classe de exatidão <Enfoque Incerteza) e exatidão de medição.

A10 (5.21)

máximo erro permissível limite de erro

um dos dois valores extremos do erro de indicação permitido por especificações ou normas para

um dado sistema de medição.

A11 (5.22)

erro datum de um sistema de medição erro datum

erro de indicação de um sistema medição em uma indicação específica ou um valor especifico

do mensurando.

Page 249: Metrologia 7a

ISO VIM 2004

43

A12 (5.23)

erro de zero de um sistema de medição erro zero

erro datum para o valor zero do mensurando.

A13 (5.24)

erro intrínseco de um sistema de medição erro intrínseco

erro de indicação quando determinado sob condições de referência.

A14 (5.25)

polarização (bias) de um sistema de medição polarização (bias)

erro de indicação sistemático de um sistema medição. NOTA

A polarização de um sistema medição é a média dos erros de indicação que seria obtida de um número infinito de medições do mesmo mensurando feitas sob condições de repetitividade.

Page 250: Metrologia 7a

ISO VIM 2004

44

Anexo B: Diagramas Conceituais

Os diagramas conceituais neste Anexo são usados para fornecer: • Uma apresentação visual das relações entre os conceitos definidos e chamados nos

capítulos anteriores. • Uma possibilidade para checar se as definições oferecem relações adequadas. • Um background para identificar conceitos necessários adicionais e • Um check que termos suficientemente sistemáticos.

Deve ser ressaltado, porém, que um dado conceito pode ser descrito por várias características e somente as características limitantes essenciais são incluídas na definição.

A área disponível na pagina limite o numero de conceitos que pode ser apresentados de modo legível, mas todos os diagramas, em princípio, são inter-relacionados como mostrado por alguns conceitos superpostos com referência.

As relações usadas são de três tipos, como definido na ISO 704 e ISO 1087-1: • Duas são hierárquicas, i.e., têm conceitos superordinados e subordinados • Uma é não hierárquica

A relação genérica hierárquica (ou relação genus-espécie) conecta um conceito genérico a um conceito especifico, este último inerente a todas as características do primeiro. Os diagramas mostram tais relações como uma arvore,

Onde um segmento curto com três pontos indica que um ou mais conceito especifico existem,

mas não estão incluídos na apresentação. Por exemplo, A relação partitiva (ou relação parte-inteiro) é também hierárquica e conecta um conceito

compreensivo a dois ou mais conceitos partitivos que colocados juntos constituem o conceito gerador. Os diagramas mostram tais relações como um ancinho ou suporte:

Onde uma linha dupla fechada indica que vários conceitos partitivos de um dado tipo estão

envolvidos e uma linha pontilhada mostra que tal pluralidade é incerta. Por exemplo,

Page 251: Metrologia 7a

ISO VIM 2004

45

Onde o termo entre parêntesis indica um conceito que não está definido no Vocabulário, mas é

tomado como uma primitiva, que é assumida ser geralmente entendida. Uma linha contínua sem um dente significa um ou mais conceitos partitivos que não estão discutidos.

A relação associada (ou relação pragmática) é não hierárquica e conecta dois conceitos que estão de algum modo associados tematicamente. Há muitos subtipos de relação associativa, mas todas estão indicadas por uma seta nas duas extremidades. Por exemplo,

Para evitar diagramas muito complicados, eles não mostram todas as relação associativas

possíveis. Os diagramas irão demonstrar que termos derivados totalmente sistemáticos não foram criados,

geralmente porque metrologia é uma disciplina antiga com um vocabulário que evolui pelo aumento natural e pela adição gradual de conceitos externos em vez de ser uma estrutura compreensiva nova.

Page 252: Metrologia 7a

ISO VIM 2004

46

Fig. B.1 Diagrama conceitual para parte do Capítulo 1, centrado na quantidade

Page 253: Metrologia 7a

ISO VIM 2004

47

Fig. B.2 Diagrama conceitual para parte do Capítulo, centrado em unidade

Page 254: Metrologia 7a

ISO VIM 2004

48

Fig. B.3 Diagrama conceitual para parte do Capítulo 2, centrado na medição

Page 255: Metrologia 7a

ISO VIM 2004

49

Fig. B.4 Diagrama conceitual para parte do Capítulo 2, centrado na incerteza medição

Page 256: Metrologia 7a

ISO VIM 2004

50

Fig. B.5 Diagrama conceitual para parte do Capítulo 2, centrado na calibração de um sistema medição

Page 257: Metrologia 7a

ISO VIM 2004

51

Fig. B.6 Diagrama conceitual para parte do Capítulo, centrado na precisão da medição

Page 258: Metrologia 7a

ISO VIM 2004

52

Fig. B.7 Diagrama conceitual para Capítulo 3, centrado em Equipamentos para medição

Page 259: Metrologia 7a

ISO VIM 2004

53

Fig. B.8 Diagrama conceitual para parte do Capítulo 4, centrado na característica metrológica de um sistema medição

Page 260: Metrologia 7a

ISO VIM 2004

54

Fig. B.9 Diagrama conceitual para Capítulo 4, centrado nas condições de operação

Page 261: Metrologia 7a

ISO VIM 2004

55

Fig. B.10 Diagrama conceitual para Capítulo 5, centrado em padrões de medição

Page 262: Metrologia 7a

ISO VIM 2004

56

Fig. B.9 Diagrama conceitual para Anexo A, centrado nos conceitos usados no Enfoque Clássico da medição

Page 263: Metrologia 7a

ISO VIM 2004

57

Bibliografia

[1] BIPM The International System of Units, SI (7ª. Ed., 1998, revisão 2000) [2] ISO 31:1992, revista 1998, Quantities and Units – Parts 0 a 13. [3] [ISO 1000:1992, revista 1998, SI units and recommendations for the use of their multiples and

of certain other units. [4] ISO Guide 30:1992, Terms and definitions used in connection with reference materials. [5] ISO 3534-1:1993, Statistics – Vocabulary and symbols – Part 1: Probabiility and general

statistical terms. [6] IEC Publication 60 050: International Electrotechnical Vocabulary – Cap. 300, Parts 311 e 314

(2001). [7] OIML V1: 2000, International Vocabulary of Terms in Legal Metrology (VIML). [8] IUPAP-25: Symbols, Units, Nomenclature and Fundamental Constants, Documento IUPAP-

25, E.R., Cohen & Giacomo, Physica 146A (1987) [9] IUPAC: Quantities, Units and Symbols in Physical Chemistry (1993, revista 1995). [10] Guide to the Expression of Uncertainty in Measurement (1993, revisão 1995)

publicada pela ISO em nome da BIPM, IEC, IFCC, IUPAC, IUPAP e OIML. [11] IFCC/IUPAC: Approved Recommendation (1978). Quantities and Units in Clinical Chemistry,

Clin. Chim. Acta, 1979:96:157F:83F. [12] ISO Guide 34: 2000, General requirements for the competence of reference material

producers. [13] ISO Guide 35: 1989, Certification of reference materials – General and statistical principles. [14] ISO 704:2000, Terminology work – Principles and methods. [15] ISO 1087-1:2000, Terminology work – Vocabulary – Part 1: Theory and application. [16] ISO 9000:2000, Quality management systems – Fundamentals and vocabulary. [17] ISO 10 241:1992, International terminology standards – Preparation and layout. [18] CODATA Recommended Values of the Fundamental Physical Constants: 1998. [19] BIPM, Report of the 5th CCQM Meeting (1999).

Page 264: Metrologia 7a

ISO VIM 2004

58

Lista de Acrósticos

CCQM Consultative Committee for Amount of Substance/Comité Consultatif pour la

Quantité de Matière CGPM General Conference on Weights and Measures/Conférence Générale des

Poids et Mesures CODATA Committee onf Data for Science and Technology. GUM Guide to the Expression of Uncertainty in Measurement IEC international Electrotechnical Commission IUPAP International Union of Pure and Applied Physics IFCC International Federation of Clinical Chemistry ISO International Organization for Standardization IUPAC International Union of Pure and Applied Chemistry JCGM Joint Committee for Guides in Metrology JCGM/WG2 Working Group 2 for Joint committee for Guides in Metrology OIML International Organization for Legal Metrology VIM International Vocabulary of Basic and General Terms in Metrology

Apostilas DOC/Metrologia Vocabulario Metrologia 2004.doc 05 FEV 06

Page 265: Metrologia 7a

ISO VIM 2004

59

Índice alfabético

A ajuste ajuste de um sistema medição ajuste de zero ajuste de zero de um sistema medidor amplitude de faixa amplitude de faixa de um intervalo nominal avaliação Tipo A avaliação Tipo A da incerteza medição avaliação Tipo B avaliação Tipo B da incerteza medição

B banda morta banda morta de um sistema de medição

C cadeia de medição cálculo quantidade calibração calibração de um sistema medição calibrador cadeia de rastreabilidade metrológica classe de exatidão classe exatidão comparabilidade comparabilidade de resultados de medição compatibilidade compatibilidade de resultados de medição comutabilidade de um material referência condição de operação especificada condição de operação especificada para um sistema medição condição de regime permanente condição de regime permanente para um sistema de medição condição limite condição limite para um sistema medição condição ótima

condição ótima para um sistema medição condição precisão intermediária condição precisão intermediária da medição condição referência condição referência para um sistema medição condição repetitividade condição repetitividade da medição condição reprodutibilidade condição reprodutibilidade da medição conservação de um padrão medição correção

D dado referência dado referência padrão desvio (drift) desvio de um sistema de medição detector dimensão dimensão de uma quantidade dimensão quantidade

E equação quantidade equação unidade equação valor numérico equação valor numérico quantidade equipamento de check equipamento de transferência equipamento medição de check equipamento medição de transferência equipamento mostrador (display) erro erro aleatório erro aleatório de medição erro datum erro datum de um sistema de medição erro de indicação erro de medição erro de zero de um sistema de medição erro intrínseco erro intrínseco de um sistema de medição erro sistemático erro sistemático de medição erro zero escala

Page 266: Metrologia 7a

ISO VIM 2004

60

escala de um equipamento mostrador escala medição escala medição referência convencional escala referência convencional especificidade especificidade de um sistema medição estabilidade estabilidade de um sistema de medição exatidão (accuracy) exatidão da medição exatidão e um sistema de medição

F fator cobertura fator de conversão entre unidades função medição

H hierarquia calibração

I incerteza incerteza alvo incerteza da medição incerteza da medição padrão incerteza definicional incerteza expandida incerteza instrumental incerteza medição incerteza medição alvo incerteza medição definicional incerteza medição expandida incerteza medição padrão Incerteza medição padrão combinada incerteza padrão Incerteza padrão combinada indicação indicação de um sistema de medição instrumento de medição instrumento indicador de medição intervalo cobertura intervalo de indicação intervalo de indicação nominal intervalo de medição intervalo de trabalho intervalo nominal ISQ

L limite de discriminação limite de erro

M material referência material referência certificada CRM ou MRC máximo erro permissível medição medida material mensurando método de medição método medição metrologia múltiplo de uma unidade

P padrão viagem padrão padrão de trabalho padrão intrínseco padrão medição padrão medição de trabalho padrão medição de viagem padrão medição intrínseco padrão medição nacional padrão medição primário padrão medição referência padrão medição secundário padrão nacional padrão primário padrão referência padrão secundário polarização (bias) polarização (bias) de um sistema de medição precisão precisão intermediária precisão intermediária da medição precisão medição princípio de medição probabilidade cobertura procedimento de medição procedimento medição primária procedimento primário

Q quantidade

Page 267: Metrologia 7a

ISO VIM 2004

61

quantidade adimensional quantidade de base quantidade de dimensão um quantidade de influência quantidade derivada quantidade entrada para uma função medição quantidade ordinal quantidades da mesma espécie

R rastreabilidade metrológica rastreabilidade metrológica a uma unidade rastreabilidade metrológica a uma unidade de medição repetitividade repetitividade da medição reprodutibilidade reprodutibilidade da medição resolução de um instrumento mostrador resolução de um sistema medição resposta no tempo a um degrau resposta no tempo a um degrau de um sistema de medição resultado da medição resultado medição

S seletividade seletividade de um sistema medição sensitividade sensitividade de um sistema de medição sensor SI sistema coerente de unidades sistema de medição sistema de quantidades sistema de unidades Sistema Internacional de Quantidades Sistema Internacional de Unidades sistema medição submúltiplo de uma unidade

T transdutor de medição

U

unidade unidade base unidade de medição unidade de medição base unidade derivada unidade derivada coerente unidade medição

V validação valor valor convencional valor convencional de uma quantidade valor de uma quantidade valor numérico valor numérico de uma quantidade valor quantidade valor quantidade convencional valor quantidade numérico valor quantidade referência valor referência valor verdadeiro valor verdadeiro de uma quantidade variação devida a uma quantidade influência verdade verificação

Page 268: Metrologia 7a

Referências Bibliográficas

62

Referências Bibliográficas 01. Almeida, G. Sistema Internacional de Unidades (SI), Lisboa, Platano, 1988. 02. Arnold, K.L., Guia Gerencial para a ISO 9000, Rio de Janeiro, Editora Campus, 1995. 03. Anthony, D.M., Engineering Metrology, Oxford, Pergamon, 1986. 04. AT & T Technologies, Statistical Quality Control Handbook, Charlotte, Delmar, 1984. 05. Banks, J., Principles of Quality Control, New York, John Wiley, 1989. 06. Barney, G.C., Intelligent Instrumentation, 2a. ed., Longon, Prentice Hall, 1988. 07. Benedict, R.P., Fundamentals of Temperature, Pressure and Flow Measurements, 2a. ed., New

York, John Wiley, 1977. 08. Bentley, J.P., Principles of Measurement Systems, 2a. ed., Singapore, Longman, 1983. 09. Berkov, V., Metrologie Industrielle, Moscow, MIR, 1983. 10. Besterfield, D.H., Quality Controle, 4a. ed., Englewood Cliffs, Prentice-Hall, 1994. 11. Cheremisinoff, N.P. & Cheremisinoff, P.N., Unit Conversions and Formulas, Ann Arbor,

Butterworth, 1980. 12. Connell, B., Process Instrumentation Applications Manual, New York, McGraw-Hill, 1996. 13.Coyne, G.S., Laboratory Handbook of Materials, Equipment, & Technique, Englewood Cliffs,

Prentice-Hall, 1992. 14. Cox, D.R., Planning of Experiments, Singapore, John Wiley, 1958. 15. Dally, J.W., Riley, W.F. & McConnell, K.G., Instrumentation for Engineering Measurements, 2a.

ed., Singapore, John Wiley, 1993. 16. Dieck, R.H., Measurement Uncertainty - Methods and Applications, Research Triangle Park, ISA,

1992. 17. Dieter, G.E., Engineering Design, 2a. ed., Singapore, McGraw-Hill, 1991. 18. Doebelin, E.0., Engineering Experimentation, Singapore, McGraw-Hill, 1995. 19. Doebelin, E.0., Measurement systems, 4a. ed., Singapore, McGraw-Hill, 1990. 20. Figliola, R.S. & Beasley, D.E., Theory and Design for Mechanical Measurements, 2a. ed.,

Singapore, John Wiley, 1995. 21. Fleming, M.C. & Nellis, J.G., Essence of Statistics for Business, Hertfordshire, Prentice Hall,

1991. 22. Fluke, Calibration: Philosophy in Pratice, Everett, Fluke, 1994 23. Friesth, E.R., Metrication for Manufacturing, New York, Industrial Press, 1978. 24. Gibbings, J.C., Systematic Experiment, Cambridge, Cambridge University Press, 1986. 25. Grant, E.L. & Leavenworth, R.S., Statistical Quality Control, 6a. ed., Singapore, McGraw-Hill,

1977. 26. Halpern S., Assurance Sciences - Introduction to Quality Control & Reliability, Englewood Cliffs,

Prentice-Hall, 1978. 27. Hamburg, M. & Young, P., Statistical Analysis for Decision Making, 6a. ed., Orlando, Dryden,

1994. 28. Hicks, C.R., Fundamental Concepts in Design of Experiments, 3a. ed., New York, Holt, Rinehart

and Winston, 1982. 29. Hoel, P.G., Elementary Statistics, 4a. ed., Singapore, John Wiley, 1976. 30. Holman, J.P., Experimental Methods for Engineers, 6a. ed., Singapore, McGraw-Hill, 1994. 31 Hutchins, G.B., Introduction to Quality - Control, Assurance and Management, New York,

Macmilan, 1991. 32. Hutchins, G.B., ISO 9000 - Um Guia Completo, São Paulo, Makron, 1994. 33. Jones, B.E., Instrumentation, Measurement, and Feedback, London, McGraw-Hill, 1977. 34. Jones, L.D. & Chin, A.F., Electronic Instruments and Measurements, 2a. ed., Englewood Cliffs,

Prentice-Hall, 1991. 35. Juran, J.M. & Gryna, F.M., Quality Planning and Analysis, 3a. ed., Singapore, McGraw-Hill, 1993. 36. Kalvelagen, E. & Tijms, H.C., Exploring Operations Research & Statistcs , Englewood Cliffs,

Prentice-Hall, 1990. 37. Karim, G.A. & Hamilton, A.B., Metrication, Boston, IHRDC, 1981.

Page 269: Metrologia 7a

Referências Bibliográficas

63

38. Kateman, G.A. & Pijpers, F. W., Quality Control in Analytical Chemistry, New York, John Wiley, 1981.

39. Kume, H., Metodos Estatisticos para Melhoria da Qualidade, São Paulo, Editora Gente, 1993. 40. MacLean, G.E., Documenting Quality for ISO 9000 and Other Industry Standards, Milwaukee,

ASQC Press, 1993. 41. Mayne, R. & Margolis, S., Introduction to Engineering, New York, McGraw-Hill, 1982. 42. Meloun, M., et alt., Chemometrics for Analytical Chemistry, Chichester, Ellis Horwood, 1992. 43. Mitra, A., Fundamentals of Quality Control and Improvement, New York, Macmilan, 1993. 44. Montgomery, D.C. & Runger, G.C., Applied Statistics and Probability for Engineers, New York,

John Wiley, 1994. 45. Morris, A. S., Principles of Measurement and Instrumentation, Wiltshire, Prentice Hall, 1993. 46. Nachtigal, C.L., Instrumentation & Control, New York, John Wiley, 1990 47. Nakra, B.C. & Chaudhry, K.K., Instrumentation Measurement and Analysis, New Delhi, Tata

McGraw-Hill, 1985. 48. Noltingk, B.E. (editor), Instrumentation - Reference Book, 2a. ed., Surrey, Butterworths-

Heinemann, 1995. 49. Ott, E.R. & Schilling, E.G., Process Quality Control, 2a. ed., New York, Mc-Graw-Hill, 1990. 50. Phadke, M.S., Quality Engineering Using Robust Design, Englewood Cliffs, Prentice-Hall, 1989. 51. Pedde, L.D., Foote, W.E. et alt., Metric Manual, Denver, US Government Printing Office, 1978. 52. Pennella, C.R., Managing the Metrology System, Milwaukee, ASQC Quality Press, 1992. 53. Pyzdek, T. & Berger, R.W., Quality Engineering Handbook, New York, Marcel Dekker, 1992. 54. Ray, M.S., Engineering Experimentation, Cambridge, McGraw-Hill, 1992. 55. Rothery, B., ISO 9000, São Paulo, Makron, 1993. 56. Rowbotham, G.E., Engineering and Industrial Graphics Handbook, New York, McGraw-Hill Book,

1982. 57. Santos Jr., M.J. & Irigoyen, E.R.C., Metrologia Dimensional, Porto Alegre, EUFRGS, 1985. 58. Souto, F.C.R., Visão da Normalização, Rio de Janeiro, Qualitymark, 1991. 59. Sydenham, P.H., Measuring Instruments: Tools of Knowledge and Control, London, Peter

Peregrinus, 1979. 60. Taylor, J.R., Quality Control Systems, Singapore, McGraw-Hill, 1989. 61. Taylor, J.R., Error Analysis, 2a ed., Sausalito, University Science Books, 1997. 62. Waeny, J.C., Controle Total da Qualidade Metrológica, São Paulo, Makron, 1992.

Page 270: Metrologia 7a

Referências Bibliográficas

64

Normas 1. ABNT NBR ISO 8402, Gestão da qualidade e garantia da qualidade - Terminologia, DEZ 1994 2. ABNT NB 9000, Normas de gestão da qualidade e garantia da qualidade - Diretrizes para seleção

e uso, JUN 1990 3. ABNT NB 9000-2, Normas de gestão da qualidade e garantia da qualidade - Parte 2: Diretrizes

gerais para a aplicação das NBR 19001, NBR 19002 e NBR 19003, FEV 1994 4. ABNT NB 9000-3, Normas de gestão da qualidade e garantia da qualidade - Parte 3: Diretrizes

gerais para a aplicação da NBR 19001 ao desenvolvimento, fornecimento e manutenção de software, NOV 1993.

5. ABNT NB 9000-4, Normas de gestão da qualidade e garantia da qualidade - Parte 4: Guia para gestão do programa de dependabilidade, NOV 1993

6. ABNT NB ISO 9001 - ISO 9001, Sistemas da qualidade - Modelo para garantia da qualidade em projetos/desenvolvimento, produção, instalação e assistência técnica, JUN 1990.

7. ABNT NB 9002 - ISO 9002, Sistemas da qualidade - Modelo para garantia da qualidade em produção, instalação e serviços associados, DEZ 1994.

8. ABNT NBR ISO 9004-2, Gestão da qualidade e elementos do sistema da qualidade - Parte 2: Diretrizes para serviços, NOV 1993

9. ABNT NBR ISO 9004-3, Gestão da qualidade e elementos do sistema da qualidade - Parte 3: Diretrizes para materiais processados, FEV 1994

10. ABNT NBR ISO 9004-4, Gestão da qualidade e elementos do sistema da qualidade - Parte 4: Diretrizes para melhoria da qualidade, NOV 1993

11. ABNT NBR ISO 10011-1, Diretrizes para auditoria de sistemas da qualidade - Parte 1: Auditoria, JUL 1993

12. ABNT NBR ISO 10011-2, Diretrizes para auditoria de sistemas da qualidade - Parte 2: Critérios para qualificação de auditores de sistema da qualidade, JUL 1993

13. ABNT NBR ISO 10011-3, Diretrizes para auditoria de sistemas da qualidade - Parte 3: Gestão de programas de auditoria, JUL 1993

14. ANSI/ASQC M1-1987, American National Standard for Calibration Systems, JUN 1987. 15. ISO 9001, 2a. ed., Quality systems - Model for quality assurance in design, development,

production, installation and servicing, Jul 1994 16. ISO 9004, 1a. ed., Quality management and qality system elements - Part 2: Guidelines for

services, AUG 1991 17. ASTM E 691-79, Conducting na Interlaboratory Test Program to Determine the Precision of Test

Methods, Apr, 1980. 18. NIS 80 - Guide to Expression of Uncertainties in Testing, NAMAS, Sep 1994. 19. NIS 3003 - The Expression of Uncertainty and Confidence in Measurement for Calibrations,

NAMAS, May 1995. 20. ISO Guide 25 - Guide to the Expression of Uncertainty in Measurement 21. Western European Calibration Cooperation, WECC Doc. 19, 1989, Guidelines for the Expression

of the Uncertainty of Measurement in Calibrations. 22. INMETRO, Vocabulário Internacional de Termos Fundamentais e Gerais de Metrologia, Duque de

Caxias, Inmetro, 1995.

Apostilas\Metrologia BiblioMetro.DOC 19 ABR 01 (Substitui 27 MAI 96)