Módulo 3 Conceitos Técnicos em Metrologia PDF

Document Details

GutsyMeteor9465

Uploaded by GutsyMeteor9465

Instituto Nacional de Metrologia, Qualidade e Tecnologia – Inmetro

2020

Paulo Roque Martins Silva

Tags

metrology measurement techniques metrology concepts technical concepts

Summary

This document provides a detailed explanation of metrology concepts and their technical aspects. It covers fundamental definitions of metrology, different types of measurements, a discussion of the involved instruments, and the uncertainty and errors in the process. The documents are part of a broader training course.

Full Transcript

Aula 3 | Conceitos Técnicos da Metrologia Curso: Metrologia Básica Aula 3 - Conceitos Técnicos da Metrologia Autor: Paulo Roque Martins Silva Instituto de Metrologia, Qualidade e Tecnologia – Inmetro Presidente: Marcos Heleno Guerson de Oliveira Junior Diretor de Planejamento e Articulação Ins...

Aula 3 | Conceitos Técnicos da Metrologia Curso: Metrologia Básica Aula 3 - Conceitos Técnicos da Metrologia Autor: Paulo Roque Martins Silva Instituto de Metrologia, Qualidade e Tecnologia – Inmetro Presidente: Marcos Heleno Guerson de Oliveira Junior Diretor de Planejamento e Articulação Institucional: Paulo Henrique Lima Brito Coordenador-Geral do Centro de Capacitação: Luiz Fernando Rust da Costa Carmo Equipe Técnica do Centro de Capacitação: Edson Seiti Miyata Kelly Fernandes Pereira Luiz Antonio Silva dos Santos Marcia de Souza Santos Matheus Fernandes Cunha Inmetro - Outubro/2020 Aula 3 Sumário Apresentação Objetivos da aula Tópico 1 | Medições p. 4 Tópico 2 | Instrumentos de medição p. 14 Tópico 3 | Incerteza de medição p. 31 Tópico 4 | Erros de medição p. 35 Síntese p. 50 Referências p. 51 Aula 3 Olá, cursista! Nesta aula, falaremos a respeito de medições e de alguns elementos que compõem o processo de medição, como os instrumentos de medição, a incerteza de medição e os erros de medição. Objetivos da aula: Compreender o conceito de medição Entender os principais fatores que influenciam a medição Estudar os instrumentos de medição, a incerteza de medição e os erros de medição Aula 3 Tópico 1 Medições Em qualquer campo de atividade, as decisões são tomadas com base em informações que, em geral, são medições realizadas de forma direta ou indireta, relacionadas com o objeto em estudo. Assim, medições erradas podem levar a decisões erradas. Por isso, a qualidade das medições é tão importante. Primeiramente, devemos conceituar o que é medição. A medição é o procedimento experimental pelo qual o valor momentâneo de uma grandeza é determinado como um múltiplo e/ou fração de uma unidade, estabelecida por um padrão. (THEISEN, 1997) A operação de medir é realizada, genericamente, por um sistema de medição. Obtém-se, da operação de medição, a leitura, que é caracterizada por um número (lido pelo operador) acompanhado da unidade de leitura. A figura 1 apresenta o conceito básico da medição e mostra que o produto da operação de medição é o resultado da medição, que é formado por um número e uma unidade. Figura 1 – Conceito básico de medição Fonte: Inmetro Do ponto de vista técnico, quando uma medição é realizada, espera-se que ela seja: 1. Exata, isto é, o mais próximo possível do valor verdadeiro. 2. Repetitiva, com pouca ou nenhuma diferença entre medições efetuadas sob as mesmas condições. 3. Reprodutiva, com pouca ou nenhuma diferença entre medições realizadas sob condições diferentes. Página 4 Diversos fatores influenciam o processo de medição. Quanto mais se tem controle sobre estes fatores, melhor será a medição. Mas quais são esses fatores? Lembremos que, por definição, medição é: o processo de obtenção experimental dum ou mais valores que podem ser, razoavelmente, atribuídos a uma grandeza. (VIM, 2012) Esse processo é composto por diversas partes e envolve diversos atores que trazem consigo alguma influência na medição. São eles: Método de medição Amostragem Condições ambientais Instrumento de medição e rastreabilidade dos padrões Operador Dessa maneira, podemos entender que a qualidade do resultado de medição resulta da qualidade do gerenciamento desse processo. Na figura seguinte, é ilustrada a medição com os fatores que podem intervir no seu resultado. Figura 2 - Fatores que influenciam no processo de medição Fonte: Inmetro Página 5 A seguir, vamos apresentar como cada um desses fatores influência no processo de medição. 1.1. Método de medição O método de medição, como definido no Vocabulário Internacional de Metrologia - VIM (2012), é: a descrição genérica duma organização lógica de operações utilizadas na realização duma medição. Os métodos de medição podem ser classificados de duas formas: medição direta e medição indireta. Na medição direta, o resultado é obtido diretamente dos dados experimentais. Obtém-se o valor da grandeza procurado comparando-se diretamente com padrões ou através de instrumentos de medida graduados, segundo as unidades respectivas. Temos como exemplos de medição direta a medida do comprimento com uma régua, temperatura através de um termômetro, pressão através de um manômetro. Na medição indireta, o resultado é obtido através de medições diretas de outras grandezas, ligadas por uma dependência conhecida com a grandeza procurada. São utilizadas quando é difícil medir diretamente a grandeza procurada ou quando a medição indireta produz resultados mais precisos. A seguir, elencamos dois exemplos de medição indireta: 1. O cálculo da área de um terreno retangular através da multiplicação do comprimento de cada um dos lados. Neste caso, utilizamos um instrumento para fazer uma medida direta de cada lado. A área é obtida através do produto dos dois comprimentos (b (base) X h (altura)). Instrumento com que se mede a pressão de fluidos. Página 6 Figura 3: Retângulo e sua equação matemática da área Fonte: Inmetro 2. A medição de volume utilizando uma balança e convertendo para volume, de acordo com a massa específica, ou utilizando um recipiente de volume conhecido, por meio de medidas diretas de cada lado. Figura 4 - Medição de volume utilizando balança ou um recipiente de volume conhecido Fonte: Inmetro 1.2 Amostragem A amostragem é um método estatístico que nos permite examinar uma amostra (parcela) representativa de uma população, com o propósito de extrair conclusões, as quais serão generalizadas para toda a população. Como não são avaliados todos os indivíduos, as conclusões tiradas são estimativas e possuem uma margem de erro, denominado erro amostral. Página 7 Aprenda um pouco mais sobre erro amostral com as informações contidas na figura abaixo. Figura 5 – Erro amostral Fonte: IFCE No Inmetro, utilizamos a amostragem na avaliação da conformidade de produtos ou instrumentos de medição. Nesse caso, temos a norma ABNT NBR 54261, que estabelece os planos de amostragem adequados para esse trabalho. Assim, quando respeitadas as particularidades da amostragem, esse procedimento se torna bastante eficiente para a inspeção de grandes quantidades de produtos ou instrumentos. 1.3 Condições ambientais A influência de fatores ambientais – tais como temperatura, umidade, poeira, vibração, flutuação na tensão de alimentação elétrica, interferência eletromagnética e outros fatores, existentes no local onde as medições são realizadas –, deve ser considerada para a realização de medições. Esses fatores devem ser monitorados e controlados, de modo a minimizar seus efeitos no resultado final da medição. Por exemplo, a maioria dos metais tem como característica a contração ou dilatação de suas dimensões, de acordo com a variação da temperatura. Portanto, durante a comparação de uma trena metálica com o seu respectivo padrão, deve-se controlar a temperatura. Fita métrica que, feita geralmente em metal com medidas entre os 10 e os 25 metros de comprimento, é usada para medir terrenos ou quaisquer outras superfícies. Página 8 Figura 6 – Trena metálica e fatores externos Fonte: IFCE Outro exemplo bastante simples, mas não menos importante, é o de uma balança que foi instalada próxima a um condicionador de ar, de forma que o fluxo de ar da ventilação atinge diretamente a plataforma de pesagem, podendo alterar a indicação da massa do objeto. Isso significa dizer que cada local de instalação e cada instrumento de medição têm diferentes fatores ambientais que devem ser considerados e podem ser determinantes no resultado. 1.4 Instrumentos e padrões de medição Não nos damos conta, mas, no nosso dia a dia, utilizamos instrumentos de medição o tempo todo. Os exemplos são inúmeros: quando vamos ao supermercado e compramos um quilograma de maçã; quando vamos a um posto de combustível e abastecemos vinte litros de gasolina em nosso veículo; quando compramos dois metros de fio em uma loja de materiais elétricos. Em todos esses casos, nossas compras foram feitas com base em medidas e, para obtê-las, foram empregados instrumentos de medição: uma balança, um medidor volumétrico e uma trena, respectivamente. Página 9 Figura 7 – Instrumentos de medição nas atividades diárias Fonte: IFCE Tais instrumentos de medição, utilizados no âmbito da metrologia legal, estão no comércio, nas áreas da saúde, da segurança e do meio ambiente e na definição ou aplicação de penalidades (efeito fiscal). Segundo o VIM (2012), o instrumento de medição é: um dispositivo utilizado para realizar medições, individualmente ou associado a um ou mais dispositivos suplementares. Assim, de maneira simplificada, podemos dizer que é através do instrumento de medição que obtemos os resultados de medição. Voltaremos a falar sobre instrumento de medição no tópico 2 desta aula. Agora, vejamos o conceito de sistema de medição. Segundo o Vocabulário Internacional de Termos de Metrologia Legal (VIML, 2016), o sistema de medição é: o conjunto de um ou mais instrumentos de medição e frequentemente outros dispositivos, compreendendo, se necessário, reagentes e insumos, montado e adaptado para fornecer informações destinadas à obtenção dos valores medidos, dentro de intervalos especificados para grandezas de naturezas especificadas. Página 10 Figura 8 - Instrumentos de medição e sistemas de medição Fonte: Inmetro Já os padrões de medição, segundo o VIM (2012), são: a realização da definição de uma dada grandeza, com um valor determinado e uma incerteza de medição associada, utilizada como referência. Em outras palavras, podemos dizer que os padrões de medição são dispositivos capazes de definir, reproduzir, realizar e conservar grandezas físicas com um valor conhecido para servir de referência para outras medidas da mesma grandeza. Em alguns casos, os instrumentos de medição podem ser utilizados como padrão. Isso acontece, por exemplo, quando utilizamos um voltímetro de melhor qualidade metrológica para conferir um resultado de outro voltímetro. (Também chamado de voltómetro ou voltômetro) aparelho de medição de tensão ou ddp de um circuito elétrico. Ele pode ser apresentado de duas categorias, digital e analógica. Página 11 CUIDADOS ESPECIAIS NO MANUSEIO E ARMAZENAMENTO DOS PADRÕES: Existem cuidados especiais que devemos tomar quando manuseamos ou armazenamos os padrões metrológicos. A seguir, listamos alguns: ▪ Os padrões não devem sofrer qualquer tipo de impacto. ▪ Sempre que o padrão tenha sido submetido à sobrecarga, manuseio incorreto, produza resultados suspeitos ou mostre ter defeitos ou estar fora dos limites especificados, deverá ser retirado de serviço e o fato deve ser informado ao responsável pelos padrões. ▪ Devem ser armazenados sempre dentro de seus estojos. ▪ Não devem ser armazenados em locais úmidos nem expostos ao sol e à sujeira. ▪ Não devem ser guardados junto a outras ferramentas ou debaixo de outros objetos. ▪ Deve-se sempre observar se a etiqueta de calibração está bem legível e se o período de calibração permanece válido. ▪ Deve-se sempre observar se os lacres dos padrões não foram violados. ▪ As peças a serem medidas devem passar previamente por limpeza adequada. ▪ Os padrões devem ser manuseados com luvas, quando necessário, e com as mãos limpas. 1.5 Operador O operador técnico que realiza as medições deve conhecer o método de medição, saber avaliar as condições ambientais e decidir sobre a realização ou não de medições. Além disso, é necessário que saiba selecionar adequadamente a amostra a ser avaliada. Deve ainda registrar e interpretar corretamente o resultado das medições. Página 12 Uma pessoa pode obter diversos resultados na repetição de um mesmo procedimento de medição. Normalmente, isso acontece por desconhecimento do operador, o que o impede de se autoavaliar. Os erros humanos incluem coisas comuns, como a tendência de leitura mais alta ou mais baixa, e normalmente estão relacionados com a capacidade e a habilidade da pessoa e com o estado psicológico (fadiga, monotonia etc.). O treinamento de pessoal é a melhor maneira de prevenir erros humanos. Para aprender um pouco mais sobre o assunto, assista ao vídeo “Medições”, no ambiente virtual de aprendizagem do curso. Página 13 Tópico 2 Instrumentos de Medição Como vimos anteriormente, para realizar uma medição, é necessário utilizar um instrumento de medição. Vimos, também, que um instrumento de medição que pode ser utilizado individualmente é um sistema de medição. Um sistema de medição pode consistir de apenas um instrumento de medição. A escolha de qual instrumento utilizar depende do método de medição a ser adotado. 2.1 Tipos de instrumento de medição Um instrumento de medição pode ser de medição indicador ou uma medida materializada. Vejamos, a seguir, os tipos de instrumento de medição, segundo o VIM (2012). Dependendo da situação, uma medida materializada pode ser utilizada como instrumento de medição ou como padrão. Dessa forma, a indicação de uma medida materializada é o valor a ela designado. Página 14 Alguns exemplos típicos de medidas materializadas são: peso-padrão, medida de capacidade (que fornece um ou mais valores, com ou sem escala de valores), resistor-padrão, escala graduada, bloco-padrão, gerador-padrão de sinais, material de referência certificado. Figura 9 – Balança eletrônica (instrumento de medição indicador para medição de massa) e pesos-padrão (medidas materializadas) Fonte: Inmetro No que diz respeito a instrumentos de medição indiciadores, existe uma grande diversidade de tipos de equipamentos com diferentes características e campos de aplicação. Podemos agrupar esses tipos de equipamentos, basicamente, em dois grupos: os com mostrador analógico e os com mostrador digital. 2.1.1. Instrumentos de medição com mostrador analógico Em geral, um instrumento de medição indicador com mostrador analógico fornece a indicação de uma grandeza medida, através do deslocamento de um ponteiro sobre uma escala graduada. Figura 10 – Leitura de uma grandeza em um instrumento de medição analógico Fonte: Inmetro Página 15 Devido ao seu aspecto construtivo, o instrumento analógico assegura uma estreita correspondência entre a variação na grandeza medida e a indicação do mostrador. Atualmente, o uso destes equipamentos é mais adequado quando as grandezas a serem medidas não apresentam grandes variações instantâneas e a leitura pretendida não necessita de grande exatidão. PRINCIPAIS LIMITAÇÕES DOS INSTRUMENTOS DE MEDIÇÃO ANALÓGICOS As principais limitações do uso dos instrumentos analógicos são: ▪ O tempo de leitura é elevado. ▪ Para sensibilidades elevadas, as técnicas construtivas são delicadas e de alto custo. ▪ A utilização de ponteiros e escalas graduadas conduz a erros de visualização (paralaxe), bem como a erros de estimativa do próprio utilizador. ▪ A sua operação é local e manual e existe dificuldade, ou mesmo impossibilidade em termos práticos, de integrá-los em sistemas automáticos de medição ▪ Eles exigem uma calibração em períodos menores devido aos desajustes mecânicos associados à própria utilização dos instrumentos e à elevada sensibilidade em relação às condições ambientais. Consiste em um aparente deslocamento de um objeto observado, que é causado por uma mudança no posicionamento do observador. Página 16 2.1.2. Instrumentos de medição com mostrador digital Um instrumento de medição indicador com mostrador digital mostra diretamente o valor da grandeza a medir, através de algarismos ou dígitos em um visor. Figura 11 – Leitura de uma grandeza em um instrumento de medição digital Fonte: Inmetro As principais vantagens dos instrumentos digitais são a sua menor sensibilidade a perturbações exteriores, a capacidade de maior resolução e a representação da medida de forma numérica. Outra característica é a possibilidade de construir equipamentos portáteis com menor dependência das condições de funcionamento. Além disso, a ausência do ponteiro minimiza os erros de leitura do operador. Há também a possibilidade de armazenamento e a computação de resultados, uma vez que a informação se encontra representada utilizando sinais elétricos. PRINCIPAIS LIMITAÇÕES DOS INSTRUMENTOS DIGITAIS ▪ Reduzida versatilidade de utilização, uma vez que as funções desempenhadas são determinadas de forma rígida pelo “hardware” utilizado. ▪ Custo mais elevado que o dos instrumentos analógicos. ▪ Inexistência de “software”, que poderá limitar alterações nos instrumentos pelo fabricante ou utilizador. Página 17 2.2 Partes de um instrumento de medição indicador Todo instrumento de medição indicador é composto por três partes: sensor, dispositivo de elaboração da medida e dispositivo de apresentação da medida. 2.2.1 – Sensor É o elemento de um sistema de medição que é diretamente afetado por um fenômeno, corpo ou substância que contém a grandeza a ser medida. São exemplos de sensor: Bobina sensível de um termômetro de resistência de Instrumento óptico platina utilizado para medir Rotor de um medidor de vazão de turbina as propriedades da Tubo de Bourdon de um manômetro luz em uma Boia de um instrumento de medição de nível determinada faixa do espectro Fotocélula de um espectrômetro eletromagnético. Cristal líquido termotrópico que muda de cor em função da temperatura. A característica fundamental de um sensor é sua sensibilidade elevada à grandeza a ser medida associada a uma baixa sensibilidade às grandezas que possam perturbar o resultado da medida. 2.2.2 – Dispositivo de elaboração da medida (transdutor) É o dispositivo, utilizado em medição, que fornece uma grandeza de saída, a qual tem uma relação especificada com uma grandeza de entrada. São exemplos desses dispositivos: Sensores de temperatura simples, - Termopar robustos e de baixo custo, sendo - Transformador de corrente amplamente utilizados nos mais - Extensômetro variados processos de medição de - Eletrodo de pH temperatura. Um termopar é constituído de dois metais distintos (pHmetro ou medidor de pH) unidos em uma das extremidades. Transdutor capaz de aparelho usado para medição de pH. medir deformações Constituído basicamente por um mecânicas em corpos eletrodo e um circuito potenciômetro. de prova. O aparelho é calibrado (ajustado) de acordo com os valores referenciados em cada solução de calibração. Página 18 O transdutor pode conter elementos destinados a compensar a sensibilidade indesejável do sensor a outras grandezas que não aquela que se deseja medir e/ou elementos que combinam mais de uma grandeza diretamente medida para gerar sinais correspondentes a grandezas compostas. Sistema ou dispositivo capaz de transformar uma forma de energia em outra. 2.2.3 – Dispositivo de apresentação da medida (mostrador) É o dispositivo que transforma a grandeza de saída do transdutor e o apresenta na forma visual sobre uma escala ou visor digital. Para exemplificar melhor as três partes de um instrumento de medição, vamos utilizar o barômetro. Num barômetro, o sensor é uma cápsula, em forma de disco, em cujo interior é feito vácuo, conforme seu valor: os valores de pressão são convertidos em valores de comprimento correspondentes à altura da cápsula. A variação da altura da cápsula é elaborada através de um conjunto de alavancas e engrenagens que a transforma em uma posição de ponteiro sobre uma escala calibrada que mostra o valor da pressão medida. Figura 12: Partes de um barômetro Fonte: IFCE Instrumento que indica a pressão atmosférica, a altitude e prováveis mudanças do tempo. Página 19 2.3 Instrumentos de medição e suas aplicações Na tabela a seguir, estão listados alguns instrumentos de medição. Tabela 1 – Exemplos de instrumentos de medição Instrumento utilizado para medir a distância entre dois lados simetricamente opostos em um objeto. Página 20 2.4 Propriedades dos instrumentos de medição Vamos estudar agora as diversas propriedades utilizadas para classificar os instrumentos de medição. As definições desses e de outros parâmetros foram retiradas do VIM (2012), que deve ser sua ferramenta permanente de estudo. 2.4.1 – Indicação A indicação é: o valor fornecido por um instrumento de medição ou por um sistema de medição. (VIM, 2012) Uma indicação pode ser representada na forma visual ou acústica ou pode ser transferida a outro dispositivo. A indicação é frequentemente dada pela posição de um ponteiro sobre um mostrador para saídas analógicas, por um número apresentado em um mostrador ou impresso para saídas digitais, por um padrão de códigos para saídas codificadas ou por um valor designado a medidas materializadas. Uma indicação e um valor correspondente da grandeza medida não são, necessariamente, valores de grandezas do mesmo tipo. 2.4.2 – Intervalo de indicações Trata-se de um conjunto de valores compreendidos entre duas indicações extremas. (VIM, 2012) Um intervalo de indicações é geralmente expresso em termos de seu menor e maior valor, por exemplo, “99 V a 201 V”. Em algumas áreas, o termo adotado é “faixa de indicações”. Página 21 Geralmente, encontramos instrumentos de medição classificados de acordo com seu intervalo nominal de indicações, que é o conjunto de valores compreendidos entre duas indicações extremas arredondadas ou aproximados. Um intervalo nominal de indicações é geralmente expresso em termos de seu menor e maior valor. Por exemplo, “100 V a 200 V”. Em algumas áreas, o termo adotado é “faixa nominal”. Vejamos alguns exemplos: Termômetro clínico com intervalo de indicação nominal de 35 °C a 42 °C. Manômetro com intervalo de indicação nominal de 0 a 100 bar. Paquímetro com intervalo de indicação nominal de 0 a 300 mm. Balança com intervalo de indicação nominal de 0 a 1000 g. Figura 13 – Intervalo de indicação de um termômetro clínico Fonte: IFCE Em algumas áreas, os termos adotados são “faixa de medição”, “faixa de operação” ou “faixa de trabalho”. O intervalo de medição é menor ou, no máximo, igual à faixa de indicação e pode ser obtido nos manuais, normas técnicas ou relatórios de calibração. Um bom exemplo de intervalo de medição é o multímetro digital de 3½ dígitos, ajustado para medir tensão elétrica alternada na faixa de indicação de 0 a 700 V. Este intervalo de indicação é dividido nos seguintes intervalos de medição: 0 a 2 V; 0 a 20 V; 0 a 200 V; 0 a 700 V. Página 22 Figura 14 – Multímetro digital de 3½ dígitos Fonte: IFCE 2.4.3 – Sensibilidade Trata-se do quociente entre a variação de uma indicação de um sistema de medição e a variação correspondente do valor da grandeza medida. (VIM, 2012) Em outras palavras, a sensibilidade de um instrumento de medição representa a variação na indicação do instrumento, ou no sinal do sensor, dividida pela variação correspondente na grandeza medida (estímulo) e pode ser calculada da seguinte forma: ∆i é o acréscimo ou mudança na indicação (ou variável de saída de um sensor). ∆g é o acréscimo ou variação na grandeza física medida. A sensibilidade de um instrumento de medição pode depender do valor da grandeza medida. A variação do valor da grandeza medida deve ser grande quando comparada à resolução. Observe alguns exemplos: Um termômetro de resistência de platina, tipo Pt-100, apresenta uma sensibilidade de 0,38Ω/°C, ou seja, cada 1 °C de estímulo provoca uma variação na resistência elétrica de 0,38 ohms. Um termopar tipo K deve apresentar uma sensibilidade de 39,5 μ V/°C. Para um tipo J, a sensibilidade deve ser de 50,4 μV/°C. Página 23 2.4.4 – Resolução Trata-se da menor variação da grandeza medida que causa uma variação perceptível na indicação correspondente. (VIM, 2012) Em instrumentos com mostradores digitais, a resolução corresponde ao incremento digital. Vamos analisar um exemplo de um termo-higrômetro digital. Figura 15 – Termo-higrômetro digital, com indicação de temperatura (resolução de 0,1 °C) e umidade relativa (resolução 1%) Equipamento para laboratório que realiza medições da umidade relativa do ar. A nomeação termo-higrômetro significa que este, além de determinar a umidade, também afere a temperatura. onte: Inmetro Neste termo-higrômetro, a indicação da temperatura é dada com resolução de 0,1 °C, e a umidade relativa, com resolução de 1%, pois são as menores variações que podem ser percebidas para cada grandeza. Para mostradores analógicos, a resolução de leitura será sempre o menor valor que, com segurança, pode ser lido em uma medição. Ou seja, a resolução refere-se à menor variação dessa grandeza que pode ser percebida com segurança pelo operador. Página 24 Na figura seguinte, representamos um manômetro. O valor de cada divisão da escala com unidades em bar é de 0,5 bar, e o operador pode perceber uma variação da pressão de 0,25 bar. Na escala em psi, o valor de cada divisão é de 5,0 psi, e o operador pode perceber uma variação da pressão de 2,5 psi. Figura 16 – Manômetro analógico (resolução de 0,25 bar e 2,5 psi) Fonte: Inmetro No caso de um paquímetro, a escala do cursor é chamada de nônio ou vernier. O nônio possui uma divisão a mais que a unidade usada na escala fixa. No sistema métrico, existem paquímetros em que o nônio possui dez divisões equivalentes a 9 mm. Há, então, uma diferença de 0,1 mm entre o primeiro traço da escala fixa e o primeiro traço da escala móvel, conforme mostrado na figura abaixo. Figura 17 – Paquímetro e detalhe do nônio Fonte: Inmetro Página 25 A resolução do paquímetro é então calculada pela seguinte expressão: Resolução = UEF NDN Onde: UEF – unidade da escala fixa NDN – número de divisões do nônio Considerando a unidade fixa como 1 mm, os cálculos das resoluções para paquímetros com 10, 20 e 50 divisões do nônio serão: a) 10 divisões 1 Resolução = = 0,1 mm 10 b) 20 divisões 1 Resolução = = 0,05 mm 20 c) 50 divisões 1 Resolução = = 0,02 mm 50 2.4.5 – Exatidão de medição A exatidão é a característica mais importante de um instrumento de medição, pois determina a aptidão de um instrumento de medição em apresentar respostas próximas ao valor verdadeiro de um mensurando. Segundo o VIM (2012), mensurando é uma grandeza que se pretende medir. Página 26 Desta forma, a exatidão de medição é definida como: o grau de concordância entre um valor medido e um valor verdadeiro de um mensurando. Considerando o valor de um padrão de medição como o valor verdadeiro, a exatidão do instrumento está relacionada à sua capacidade em apresentar os resultados das medições o mais próximo possível do valor deste padrão. A exatidão de medição não é uma grandeza e não lhe é atribuído um valor numérico, e uma medição é dita mais exata quando é caracterizada por um erro de medição menor. O termo exatidão de medição não deve ser utilizado no lugar de veracidade, assim como o termo precisão de medição não deve ser utilizado para expressar exatidão de medição, o qual, entretanto, está relacionado a ambos os conceitos. A exatidão de medição é algumas vezes entendida como o grau de concordância entre valores medidos que são atribuídos ao mensurando. 2.4.6 – Precisão de medição Grau de concordância entre indicações ou valores medidos, obtidos por medições repetidas no mesmo objeto ou em objetos similares, sob condições especificadas. A precisão de medição é geralmente expressa numericamente por indicadores de incerteza, como dispersão, desvio-padrão, variância ou coeficiente de variação, sob condições de medição especificadas. As condições especificadas podem ser, por exemplo, condições de repetitividade, condições de precisão intermediária ou condições de reprodutibilidade. Página 27 A precisão de medição é utilizada para definir a repetitividade de medição, a precisão intermediária de medição e a reprodutibilidade de medição. 2.4.7 – Repetitividade Trata-se da precisão de medição sob um conjunto de condições de repetitividade no mesmo. A condição de repetitividade é uma condição de medição em um conjunto de condições, as quais compreendem o mesmo procedimento de medição, os mesmos operadores, o mesmo sistema de medição, as mesmas condições de operação e o mesmo local, assim como medições repetidas no mesmo objeto ou em objetos similares durante um curto período de tempo. Uma condição de medição é uma condição de repetitividade apenas com respeito a um conjunto especificado de condições de repetitividade. 2.4.8 – Reprodutibilidade A reprodutibilidade representa a aptidão de um instrumento de medição em fornecer indicações muito próximas, em repetidas aplicações do mesmo mensurando, sob condições diferentes de medição. Por definição, reprodutibilidade é: a precisão de medição conforme um conjunto de condições de reprodutibilidade. A condição de reprodutibilidade é a condição de medição em um conjunto de condições, as quais compreendem diferentes locais, diferentes operadores, diferentes sistemas de medição e medições repetidas no mesmo objeto ou em objetos similares. Página 28 Os diferentes sistemas de medição podem utilizar procedimentos de medição diferentes. Na medida do possível, é conveniente que sejam especificadas as condições que mudaram e aquelas que não. 2.4.9 – Classe de exatidão Em geral, instrumentos de medição são classificados de acordo com sua classe de exatidão, a qual pode ser definida como: a classe de instrumentos de medição ou de sistemas de medição que atendem a requisitos metrológicos estabelecidos para manter os erros de medição ou as incertezas de medição instrumentais dentro de limites especificados, sob condições de funcionamento especificadas. (VIM, 2012) Uma classe de exatidão é usualmente caracterizada por um número ou por um símbolo adotado por convenção. O conceito de classe de exatidão é comumente aplicado a medidas materializadas, mas, em metrologia legal, muitos instrumentos de medição indicadores também são classificados por classes de exatidão. Exemplos: balanças e hidrômetros. Cada classe de exatidão de um instrumento de medição estabelece os erros máximos admissíveis que o instrumento pode apresentar para ser considerado pertencente àquela classe. Ou seja, o erro máximo admissível é o valor extremo do erro de medição, com respeito a um valor de referência conhecido, aceito por especificações ou regulamentos para uma dada medição, instrumento de medição ou sistema de medição. Usualmente, os termos “erros máximos admissíveis”, “erros máximos permissíveis”, “erros máximos tolerados” ou “limites de erro” são utilizados quando há dois valores extremos. O termo “tolerância” não deve ser utilizado para designar erro máximo admissível. Página 29 Sugerimos que, antes de iniciar os próximos temas, você realize uma revisão de estatística básica. Este conhecimento o ajudará na compreensão dos próximos assuntos que iremos trabalhar: incerteza de medição e erro de medição. Para acessar o assunto de estatística básica relacionada a estes temas, veja o material complementar “Anexo I – Estatística Básica Aplicada a um Conjunto de Números”, no ambiente virtual de aprendizagem do curso. Para aprender um pouco mais sobre “Instrumentos de medição”, assista ao vídeo no ambiente virtual de aprendizagem do curso. Página 30 Tópico 3 Incerteza de medição Incerteza de medição é a dúvida que existe a respeito do resultado de uma medição. O Vocabulário Internacional de Metrologia (VIM, 2012) define incerteza da medição como: um parâmetro não negativo que caracteriza a dispersão dos valores atribuídos a um mensurando, com base nas informações utilizadas. Para toda medição – até a mais cuidadosa – existe sempre uma margem de dúvida, expressa como “mais ou menos” algum valor. Por exemplo, uma barra de metal pode medir um metro de comprimento “mais ou menos um centímetro”. Uma vez que sempre existe uma margem de dúvida a respeito do resultado de uma medição, necessitamos saber quão grandes são esta margem e esta dúvida. Então, dois números são necessários para quantificar uma incerteza. Um número é a largura da margem ou intervalo. O outro é a probabilidade de abrangência, que informa o quão certos estamos de que o valor da medição está dentro daquela margem ou intervalo. Por exemplo, podemos dizer que o comprimento de uma barra é 20 centímetros mais ou menos 1 centímetro, com uma probabilidade de abrangência de 95%. Esse resultado pode ser reescrito da seguinte forma: Página 31 Essa afirmação diz que estamos 95% certos de que a barra mede entre 19 e 21 cm. É importante não confundir os termos “erro” e “incerteza”. Erro é a diferença entre o valor medido e o valor de referência da grandeza que estamos medindo. Incerteza é a quantificação da dúvida sobre o resultado da medição. Sempre que possível, tentamos corrigir erros conhecidos: por exemplo, através da aplicação de correções declaradas nos certificados de calibração. Mas todo erro de valor desconhecido é uma fonte de incerteza. 3.1 O que origina a incerteza? Muitos são os fatores da origem da incerteza. O resultado de uma medição, após correção dos efeitos sistemáticos reconhecidos, é apenas uma estimativa do valor do mensurando, por causa da incerteza proveniente dos efeitos aleatórios e da correção imperfeita do resultado para efeitos sistemáticos. Na prática, existem muitas fontes possíveis de incerteza. Vejamos algumas a seguir: Página 32 O QUE PODE GERAR INCERTEZAS EM UMA MEDIÇÃO? Definição incompleta do mensurando. Realização imperfeita da definição do mensurando. Amostragem não representativa – a amostra medida pode não representar o mensurando definido. Conhecimento inadequado dos efeitos das condições ambientais sobre a medição ou medição imperfeita das condições ambientais. Erro de tendência pessoal na leitura de instrumentos analógicos. Resolução finita do instrumento ou limiar de mobilidade. Valores inexatos dos padrões de medição e materiais de referência. Valores inexatos de constantes e outros parâmetros obtidos de fontes externas e usados no algoritmo de redução de dados. Aproximações e suposições incorporadas ao método e procedimento de medição. Variações nas observações repetidas do mensurando sob condições aparentemente idênticas. É importante observarmos que estas fontes não são necessariamente independentes entre si. Naturalmente, um efeito sistemático não reconhecido não pode ser levado em consideração na avaliação da incerteza do resultado de uma medição, porém contribui para seu erro. 3.2 Minimizando a incerteza de medição É importante lembrar que minimizar as incertezas é tão ou mais importante do que quantificá-las. Existem algumas boas práticas que podem ajudar a reduzir incertezas quando realizamos medições em geral. Veja algumas recomendações: Página 33 BOAS PRÁTICAS PARA A REDUÇÃO DAS INCERTEZAS Utilizar instrumentos de medição calibrados por laboratórios acreditados. Efetuar correções para compensar por quaisquer outros erros conhecidos. Verificar as medições através de repetição ou de outros tipos de checagem. Conferir os cálculos. Utilizar instrumentos com uma resolução maior. Lembrar que, em uma cadeia de sucessivas calibrações, a incerteza aumenta quanto mais longe estivermos da primeira calibração. Obedecer às instruções do fabricante no que diz respeito ao uso e manutenção de instrumentos. Utilizar apenas planilhas e/ou softwares validados. Anotar os resultados de um ensaio sempre no momento em que eles são obtidos. Nunca passar a limpo um registro de medições. Se quiser aprender sobre “Cálculo de incerteza de medição”, consulte o material complementar, disponível no ambiente virtual de aprendizagem do curso. Aproveitamos a videoaula do curso Agentes de Metrologia Legal, que trata sobre assunto “Incerteza de medição”, e a disponibilizamos no ambiente virtual de aprendizagem, para que você possa aprender um pouco mais sobre o assunto. Assista! Página 34 Tópico 4 Erros de Medição Se realizarmos uma série de medidas de uma mesma grandeza, tal como o tempo de queda de certa massa a uma dada altura fixa, mesmo que seja empregado o mesmo método, os mesmos instrumentos de medição e as mesmas condições experimentais, possivelmente obteremos resultados um pouco diferentes entre si. A partir dessa explicação, propomos o seguinte questionamento: Já tratamos do conceito de incerteza de medição e agora trataremos das questões que envolvem o erro no processo de medição. O erro sempre está presente em qualquer processo de medição. Assim, é fundamental que um agente de metrologia legal saiba interpretar o seu significado, haja vista que esse conceito fará parte da sua rotina de trabalho. O valor exato que uma grandeza física possui só poderia ser obtido através de uma medição dita perfeita, o que na prática não é possível, pois nossos processos de medição sempre carregam alguma imprecisão. Vamos ilustrar essa afirmação com um exemplo bem simples: a medida da largura de uma folha de papel feita com uma régua comum, com marcação em centímetros e milímetros, conforme mostrado na figura 18. Página 35 Figura 18 - Ilustração utilizada no exemplo do conceito de erro de medição Fonte: Inmetro Você coloca a régua com o zero da parte esquerda, coincidindo com a beirada da folha, e verifica em que marca na régua está a outra beirada. No detalhe ampliado de nossa ilustração, você percebe que a ponta está quase coincidindo com a marca 21 cm. Fica um pouco à direita, algo entre 21,0 cm e 21,1 cm. Ou seja, temos uma incerteza em relação ao valor correto. Agora, vamos supor que o valor medido seja considerado como 20,05 cm e que o valor de referência para o tamanho da folha, que é declarado pelo fabricante (valor esse obtido através de uma metodologia ou instrumento mais preciso), seja de 20,065 cm. Assim, a diferença entre o valor medido (20,05 cm) e o valor de referência (20,065 cm) é o erro da medição. Você pode fazer uma estimativa do valor da grandeza com certa margem de dúvida (incerteza). Mas um colega seu poderia falar em algo um pouco diferente. Ambos concordariam que o valor está entre 21,0 cm e 21,1 cm, mas poderiam divergir sobre o quanto seria maior que 21,0 cm. Assim, os erros cometidos ao se expressar o valor da medida dessa folha de papel podem ser diferentes. Cabe ressaltar que erro é diferente de incerteza, apesar de os conceitos estarem relacionados. Conforme já dito, quando repetimos várias vezes a medição de uma grandeza, normalmente os sucessivos resultados não coincidem. Mesmo que variem muito pouco, dificilmente se consegue uma série de valores idênticos. As causas dessas “flutuações” são os erros de medição. Segundo o VIM (2012), o erro de medição é: a diferença entre o valor medido de uma grandeza e um valor de referência. Página 36 Este conceito pode ser expresso como: E = X - VR Onde: E = erro de medição X = medida VR = valor de referência (valor verdadeiro ou valor convencional). O erro pode ser positivo ou negativo. Um erro positivo denota que a medição do instrumento é maior que o valor verdadeiro. Um erro negativo denota que a medição é menor que o valor verdadeiro. Nota 1: O conceito de “erro de medição” pode ser utilizado: a) Quando existe um único valor de referência, o que ocorre se uma calibração for realizada por meio de um padrão com um valor medido cuja incerteza de medição é desprezável, ou se um valor convencional for fornecido. Nestes casos, o erro de medição é conhecido. b) Caso se suponha que um mensurando é representado por um único valor verdadeiro ou por um conjunto de valores verdadeiros de amplitude desprezável. Neste caso, o erro de medição é desconhecido. Note a diferença entre os casos (a) e (b). No primeiro, temos o conhecimento do erro de medição, já que a incerteza é desprezível. No segundo, não podemos conhecer o erro de medição, pois não conhecemos o valor verdadeiro. Nota 2: Não se deve confundir erro de medição com erro de produção ou erro humano. (VIM, 2012) Página 37 Agora vamos aprofundar um pouco mais o assunto analisando duas categorias de erro que constam no VIM: erros sistemáticos e erros aleatórios. Existem outras categorias, como os erros grosseiros. Eles normalmente são oriundos de falha humana, ocorrem apenas de forma ocasional e levam à ocorrência de valores anômalos, resultados que se diferem marcadamente de todos os outros dados de um conjunto de réplicas da medida. Não vamos avançar na discussão dos erros grosseiros porque eles são bem mais raros e de identificação mais fácil que os erros sistemáticos e os erros aleatórios. Além disso, não constam no VIM. 4.1 Erro sistemático O erro sistemático é aquele que influencia as medições sempre em um mesmo sentido, ou seja, gera, sistematicamente, um acréscimo ou uma diminuição em relação ao valor de referência (valor verdadeiro ou convencional). Em outras palavras, o erro sistemático não tem caráter aleatório. Para facilitar o entendimento, daremos um exemplo. Suponha que tenhamos que determinar a massa de cinco embalagens que têm os seguintes valores de referência: 1000 g, 1100 g, 1200 g, 1300 g e 1400 g. Porém, quando medimos essas massas com uma balança, encontramos os seguintes resultados: 1010 g, 1110 g, 1210 g, 1310 g e 1410 g. Figura 19 – Ilustração de exemplo de erro sistemático Fonte: IFCE Página 38 Podemos perceber que todas as massas estão acrescidas de 10 gramas em relação ao valor de referência. Esse comportamento (de acréscimo ou decréscimo em todas as medidas) é típico quando temos presente alguma fonte de erro sistemático. Cabe ressaltar que normalmente as medidas não aparecem aumentadas ou diminuídas exatamente do mesmo valor, pois elas são afetadas por flutuações, especialmente originadas pelos erros aleatórios. Ou seja, mesmo que o resultado das medidas de massa anteriores fosse 1007 g, 1112 g, 1210 g, 1306 g e 1413 g, nosso processo de medição poderia estar sob a influência de algum erro sistemático (além do aleatório, claro). A seguir, estão relacionadas possíveis causas de erros sistemáticos: POSSÍVEIS CAUSAS DE ERROS SISTEMÁTICOS Fonte instrumental: gerada, por exemplo, pela má calibração do instrumento de medição. Fonte ambiental: decorrente da interferência do ambiente através de fatores como temperatura, pressão, umidade, campo magnético terrestre, etc. Fonte observacional: decorrente de procedimento inadequado do observador, como o erro de paralaxe, quando se mede uma grandeza através de um instrumento de ponteiro. Fonte teórica: decorrente, em uma medida indireta, do uso de fórmulas teóricas aproximadas ou de valores aproximados de constantes físicas nelas. Vejamos agora o conceito formal de erro sistemático que consta no VIM (2012): Componente do erro de medição que, em medições repetidas, permanece constante ou varia de maneira previsível. Página 39 Além disso, o VIM (2012) traz as seguintes notas sobre o erro sistemático: Nota 1: Um valor de referência para um erro sistemático é um valor verdadeiro, ou um valor medido de um padrão com incerteza de medição. Nota 2: O erro sistemático e suas causas podem ser conhecidos ou desconhecidos. Pode-se aplicar uma correção para compensar um erro sistemático conhecido. Nota 3: O erro sistemático é igual à diferença entre o erro de medição e o erro aleatório. Repare que a Nota 2 diz respeito à possibilidade de correção de erros sistemáticos, pois esses erros afastam do valor verdadeiro convencional a média de um conjunto de medições. A calibração dos instrumentos é extremamente importante para que isso seja possível. É com ela que se determina o erro sistemático dos instrumentos de medição. Uma vez conhecido, ele deve ser corrigido. O erro sistemático pode ser calculado a partir da seguinte definição (VIM, 2012): Média que resultaria de um infinito número de medições do mesmo mensurando, efetuadas sob condições de repetitividade, menos o valor verdadeiro convencional do mensurando. ES = X - VR Onde: ES= erro sistemático X = média de infinitas medições VR = valor de referência (verdadeiro ou convencional). Página 40 Vamos analisar melhor essa fórmula. Veremos a seguir que o erro aleatório aumenta ou diminui randomicamente o valor das medidas efetuadas, ou seja, algumas recebem um acréscimo, mas outras sofrem decréscimo. Se pegarmos um número muito grande de medidas, os acréscimos e decréscimos se anulam mutuamente, fazendo com que o erro aleatório assuma um valor muito pequeno. Quando temos uma quantidade de medidas que tende a infinito, a variação provocada pelo erro aleatório tende a zero. Assim, considerando-se um número infinito de medições, a eventual divergência do valor verdadeiro com o valor encontrado é oriunda do erro sistemático. 4.1.1 – Erro sistemático e tendência Na prática, não realizamos um número infinito de medições com o instrumento. Assim, o que se determina com um número finito de medições é a tendência do instrumento de medição. Chamamos essa tendência de erro sistemático de indicação do instrumento. Exemplo: são feitas quatro medidas de um comprimento, obtendo-se os valores indicados. O valor de referência é conhecido. Na tabela abaixo, vemos um exemplo do cálculo do erro sistemático de indicação de um instrumento. Tabela 2 – Cálculo de erro sistemático de indicação de uma série de medidas Fonte: Inmetro Nesta tabela, estão expressas as medidas individuais realizadas. Quando fazemos mais de uma medição do mesmo mensurando, consideramos como resultado a média dos valores obtidos. Assim, o erro sistemático é calculado comparando-se a média com o valor de referência. A média dos valores nesta tabela é igual a 12,60 mm. Assim, o erro sistemático da medição é: 12,60 mm – 12,65 mm = -0,05 mm Página 41 Cabe ressaltar que, quando o erro sistemático de um instrumento é conhecido (através do certificado de calibração do instrumento), devemos fazer o ajuste nos resultados das medições com o uso de um fator de correção. Esse fator é utilizado para eliminar o erro sistemático de um instrumento de medição. Para exemplificar, vamos supor que estamos utilizando um termômetro calibrado e no seu certificado de calibração consta que o erro de medição para a temperatura de 50,00°C é de +0,50°C (ou seja, a temperatura de referência durante a calibração era de 50,00°C e a leitura do instrumento foi de 50,50°C). Ao efetuarmos uma medida de temperatura com esse instrumento, se encontrarmos 51,80°C, qual é o valor de temperatura que deve ser considerado correto? Ora, segundo o erro que consta no certificado de calibração, devemos descontar 0,50°C. Assim, a temperatura correta a ser considerada é de 51,30°C. Muitas vezes, os erros sistemáticos são bastante reduzidos ou insignificantes, mas ainda assim é comum observar que medidas sucessivas de uma grandeza física são discordantes. Isso se deve especialmente à existência de outro tipo de erro, o aleatório. 4.2 Erro aleatório O erro aleatório é aquele que influencia as medições de forma imprevisível, ou seja, provoca alterações de forma randômica, tanto para mais quanto para menos nos valores obtidos. Esses erros são de natureza diversa e muitas vezes a identificação de sua origem é difícil ou inacessível. Porém, alguns podem ser reduzidos ou praticamente eliminados. Por exemplo, podemos reduzir as flutuações nas medidas de massa fornecidas por uma balança colocando-a em uma mesa à prova de vibrações. Ou também podemos reduzir as flutuações nas medidas fornecidas por um instrumento eletrônico minimizando o ruído gerado por sinais eletromagnéticos externos ao circuito dele por meio de uma blindagem apropriada. O uso do valor da média obtida através de várias medidas de um mesmo mensurando também contribui para a diminuição do erro aleatório. Ou seja, repetir várias vezes a medida de um mesmo mensurando normalmente contribui para aumentar a exatidão da medição e diminui a incerteza do resultado. Componente do erro de medição que, em medições repetidas, varia de maneira imprevisível. Página 42 O VIM (2012) traz as seguintes notas sobre os erros aleatórios: Nota 1: O valor de referência para um erro aleatório é a média que resultaria de um número infinito de medições repetidas do mesmo mensurando. Nota 2: Os erros aleatórios de um conjunto de medições repetidas formam uma distribuição que pode ser resumida por sua esperança matemática ou valor esperado, o qual é geralmente assumido como sendo zero, e por sua variância. Nota 3: O erro aleatório é igual à diferença entre o erro de medição e o erro sistemático. Traduzindo isso para a linguagem matemática, temos: Ea = Em- Es Onde: Ea = erro aleatório Em = erro total da medição Es = erro sistemático Vamos analisar um exemplo em que calculamos o erro aleatório de uma série de medidas. Supondo que o valor de referência seja de 12,55 kg e que não exista nenhum erro sistemático em nossas medições, dados os valores da tabela a seguir, vamos calcular o erro aleatório de cada medida. Página 43 Tabela 3 – Cálculo de erro aleatório de uma série de medidas Fonte: Inmetro Nesta tabela, estão expressos os erros aleatórios de cada uma das medidas individuais. Quando fazemos mais de uma medição do mesmo mensurando, consideramos como resultado a média dos valores obtidos. Assim, o erro é calculado comparando-se a média com o valor de referência. A média dos valores nesta tabela é igual a 12,56 kg. Assim, o erro da medição é: 12,56 kg – 12,55 kg = 0,01 kg Observe que a média dos erros aleatórios não originou zero. Isso é devido ao fato de termos o valor de apenas quatro medidas. Para que possamos afirmar com convicção que a média dos erros aleatórios será igual a zero, precisamos de um número infinito de medições. Muitas vezes, mesmo com poucas medidas, a média do erro aleatório acaba resultando em zero. Isso não é obrigatório, mas uma coincidência, mesmo que comum. 4.3 Ilustração sobre o erro sistemático e o erro aleatório Para melhor entendermos a diferença entre o erro sistemático e o erro aleatório, vamos usar o exemplo ilustrado na figura a seguir. Suponha que vamos testar a habilidade de quatro atiradores, cada um com sua arma. Página 44 Figura 20 - Ilustração de exemplo de erro sistemático e erro aleatório Fonte: Inmetro Analisando o resultado dos atiradores, podemos concluir que: O atirador A conseguiu acertar os tiros praticamente no centro do alvo, o que demonstra um erro sistemático quase não observável (pois as marcas estão praticamente equidistantes do centro) e um erro aleatório (dispersão dos tiros) baixo. O atirador B apresentou um espalhamento muito grande em torno do centro do alvo (erro aleatório alto), porém os tiros estão aproximadamente equidistantes do centro. Isso implica um erro sistemático baixo. O atirador C apresenta baixa dispersão (reduzido erro aleatório), porém todos deslocados para um mesmo lado em relação ao centro do alvo. Isso indica algum erro sistemático (como uma arma com mira desregulada). O atirador D apresenta um espalhamento muito grande e todos deslocados para o mesmo lado em relação ao centro do alvo. Isso pode ser traduzido como elevado erro aleatório e sistemático. Podemos resumir estas diferenças entre o erro sistemático e o erro aleatório na tabela a seguir. Tabela 4 – Resumo dos resultados obtidos pelos diferentes atira- dores e os tipos de erros Fonte: Inmetro Página 45 Veremos agora algumas outras nomenclaturas e classificações comumente utilizadas para os erros. Esses termos são bastante utilizados em metrologia legal. 4.4 Erros e a Metrologia Legal Erro de histerese A histerese é a tendência de um instrumento, material ou sistema de medição conservar suas propriedades na ausência do estímulo que as gerou. Esse é um fenômeno bastante típico nos instrumentos mecânicos. O erro de histerese pode ser definido como: a maior diferença (em módulo) entre os valores medidos na carga e os medidos na descarga de um instrumento de medição. (VIM, 2012) A carga é a aplicação de um estímulo sistematicamente crescente ao instrumento de medição e a descarga é a diminuição contínua do estímulo. Para facilitar o entendimento, vamos exemplificar considerando um ensaio para a determinação do erro de indicação de uma balança. Supondo que iniciamos o processo adicionando um peso-padrão de 1 kg. Aguardamos a balança estabilizar e fazemos a leitura do valor indicado. Depois, fazemos a mesma coisa adicionando uma carga total de 5 kg, 10 kg e 15 kg. Em seguida, retiramos 5 kg e fazemos a leitura da balança (massa total de 10 kg). Na sequência, repetimos o processo retirando mais 5 kg. Por último, retiramos mais 4 kg da balança para ficarmos com uma carga total de 1 kg. Figura 21 – Ilustração do exemplo de carga e descarga em uma balança Fonte: IFCE Página 46 O processo de acrescentar massa sobre a balança é chamado de carga e o de retirada de massa sobre a balança, de descarga. Quando comparamos os valores indicados pela balança durante a carga e durante a descarga para uma mesma massa, podemos observar alguma divergência. A diferença entre esses valores é o erro de histerese. Esse erro é bastante comum em instrumentos como balanças, dinamômetros e manômetros analógicos. No exemplo a seguir (tabela 5), vamos calcular o erro de histerese encontrado no ensaio de uma balança. Tabela 5 – Caso para cálculo de erro de histerese Instrumento que mede forças diretamente da deformação por elas causada num sistema elástico. Fonte: Inmetro Ao atingir o valor de 100%, devemos colocar uma pequena massa adicional e logo retirá-la, para que o instrumento possa medir o valor máximo na descarga. Percebemos que, nos pontos de 10 kg, 40 kg e 50 kg, existe uma diferença entre os valores na carga e na descarga: 1 kg para as massas de referência 10 e 50 kg (11– 10; 50–49) e 2 kg para a massa de referência de 40 kg (41–39). Neste exemplo, então, a histerese da balança é de 2 kg, pois é a maior diferença encontrada. Quando for diferente de zero, o valor do erro de histerese sempre assume um valor positivo, pois o calculamos fazendo: maior valor - menor valor. Erro máximo admissível O erro máximo admissível (EMA) também é chamado de erro máximo permissível, erro máximo tolerado ou limite de erro. O VIM (2012) define o erro máximo admissível como: valor extremo do erro de medição, com respeito a um valor de referência conhecido, aceito por especificações ou regulamentos para uma dada medição, instrumento de medição ou sistema de medição. Página 47 Vamos analisar os exemplos a seguir para entender melhor o conceito. Os esfigmomanômetros (medidores de pressão arterial) são instrumentos que possuem controle metrológico compulsório. Para que possam ser comercializados, eles primeiramente devem ser submetidos a uma série de ensaios. Entre eles, está o do erro de indicação. Deve-se comparar o valor da pressão indicada pelo instrumento com o valor de um padrão (referência). Os instrumentos só podem ser comercializados se o erro de indicação for menor do que 3 mmHg (para mais ou para menos), ou seja, o erro máximo admissível é ±3 mmHg. Tabela 6 – Erros máximos admissíveis para manômetros tipo Bourdon, segundo NBR 14105 Fonte: Inmetro Segundo o VIM (2012), a classe de exatidão é: a classe de instrumentos de medição ou de sistemas de medição que atendem a requisitos metrológicos estabelecidos para manter o erro de medição ou as incertezas de medição instrumentais dentro de limites especificados, sob condições de funcionamento especificadas. A classe de exatidão é usualmente caracterizada por um número ou por um símbolo adotado por convenção. Vamos ilustrar um pouco melhor o conceito de classe de exatidão com um exemplo. Página 48 Os instrumentos de pesagem não automáticos (balanças) são enquadrados em quatro classes: classe I (exatidão especial), classe II (exatidão fina), classe III (exatidão média) e classe IV (exatidão ordinária). Só o fato de conhecermos que uma balança pertence, por exemplo, à classe III, já temos várias informações sobre características desse instrumento de medição (faixa dos valores de divisão, carga mínima, número de valores de divisão, faixa do erro máximo admissível, etc.). Segundo as recomendações da Organização Internacional de Metrologia Legal (OIML), as massas-padrão usadas na calibração de balanças são classificadas nas classes de exatidão E1, E2, F1, F2, M1 e M2. Uma massa de 100 mg, por exemplo, apresenta por classe de exatidão os valores mostrados na tabela abaixo. Tabela 7 – Erros máximos admissíveis para uma massa de 100 mg de diferentes classes de exatidão Fonte: Inmetro Aproveitamos a videoaula do curso Formação de Agentes de Metrologia Legal, que trata sobre “Erro de medição”, e a disponibilizamos no ambiente virtual de aprendizagem, para que você possa aprender mais sobre o assunto. Assista! Página 49 Síntese Nesta aula, você estudou diversos assuntos, que podem ser resumidos da seguinte forma: Conceito de medições e os fatores que influenciam no processo de medição Instrumentos de medição e as suas propriedades (fator importante para que tenhamos boas medições) Incerteza de medição, os fatores que geram essa incerteza e formas de como minimizá-la Erros de medição, os seus diferentes tipos e aqueles erros a serem considerados na Metrologia Legal. Página 50 Referências THEISEN, Álvaro Medeiros de Faria, Fundamentos da metrologia industrial: aplicação no processo de certificação ISO 9000, PUC/RS: Suliani - Editografia Ltda. e Gráfica Epecê (1997). VOCABULÁRIO INTERNACIONAL DE METROLOGIA: conceitos fundamentais e gerais e termos associados (VIM 2012). 1ª edição luso-brasileira. Portaria do Inmetro nº 232, de 08 de maio de 2012. Página 51 Referências Consultadas BELL, S. A Beginner’s Guide to Uncertainty of Measurement – Issue 2. Teddington: NPL, 2011. CAMERON, D. N. Measurement and calibraton handbook. AETC Form 214. Kessler Air Force Base. Mississippi, USA, 1993. CNI. COMPI, Metrologia. 2. ed. rev. Brasília, 2002. 87p.: il. NOÇÕES GERAIS SOBRE METROLOGIA - Curso de Pós-Graduação em Energia Nuclear – UFMG Paulo César C. Pinheiro. SISTEMA INTERNACIONAL DE UNIDADES – SI 2012. SOUZA, P. K., Sobrinho, M. D. Apostila de instrumentos de medida e sistemas de instrumentação. Instituto de Pesquisas Hidráulicas (UFRGS) e Faculdade de Engenharia de Ilha Solteira (Unesp). 2005, 190 p. VOCABULÁRIO INTERNACIONAL DE TERMOS DE METROLOGIA LEGAL. Portaria Inmetro nº 150, de 29 de março de 2016. Página 52

Use Quizgecko on...
Browser
Browser