Análise de medições e resultados experimentais
Qualquer medida que efetuamos tem alguma incerteza associada. Um resultado é absolutamente inútil se não soubermos qual o seu grau de incerteza. Naturalmente, tentamos proceder atentamente na preparação dos experimentos de modo que as incertezas sejam tão pequenas quanto possível, mas, em qualquer caso, é necessário saber estimar o valor dessas incertezas.
A incerteza na leitura de medições que usam escalas analógicas de variação contínua é, como regra, metade do valor correspondente à menor divisão apreciável ( g. X). A leitura no instrumento defi medida deverá ser feita com a maior precisão possível, isto significa estimar até uma fração da menor divisão da escala do instrumento. Se a menor divisão for suficientemente grande para permitir subdivisões mentais com segurança, a incerteza na leitura poderá ser considerada como metade dessa subdivisão. Estes critérios dependem do observador e terão de ser, por ele definidos, com todo o cuidado. Tomando como exemplo os corpos representados na gura X poderia estimarfi para medidas dos corpos A, B e C, respectivamente, 2.8, 4.2 e 4.5 unidades da escala, ainda que, por segurança, continuasse a considerar como incerteza na leitura 0.5 unidade da escala.
E bem estabelecido que o resultado de qualquer experimento científico atribui-se um dado grau de confiabilidade, cuja estimativa é essencial para verificar a validade dos resultados obtidos ou até mesmo de um modelo. Para tanto, é imprescidível que se conheça um mínimo sobre teoria das
Figura 1: Supondo que não se faz uma estimativa, consideramos para o objeto representado pela seta A o valor 3 e para o objecto B o valor 4, por serem as divisões questão, em cada um dos casos, mais próximas. No 1o caso estou a fazer uma aproximação por excesso, no 2o caso por defeito. A maior incerteza que tenho numa leitura comesta escala é de metade de uma divisão e que acontece na situação
representada pelo objeto C com uma
dimensão que se situa sensivelmente a meio das divisões 4 e 5, ao fazer uma
aproximação para 4 ou para 5.
medidas. Esta introdução visa apresentar aos estudantes, de forma simples, alguns conceitos básicos relativos à aquisição e interpretação dos dados (instrumental e procedimento).
Processo de medição
Para que possamos realizar uma medida de uma grandeza física de forma correta precisamos (i) escolher um instrumento adequado para a medida, (ii) aprender o procedimento de utilização do instrumento e (iii) aprender a ler a escala de medida desse instrumento corretamente. Por exemplo, se quisermos medir o comprimento de uma sala de aula, a largura de uma folha de caderno e o diâmetro de um fio de cabelo devemos usar instrumentos diferentes. Para a medida do comprimento da sala de aula poderíamos usar uma trena, para a medida da largura da folha de caderno, uma régua e para a medida do diâmetro do fio de cabelo, um micrômetro. Note que nos três casos queremos realizar medidas de comprimento, ou seja, medidas de mesma dimensão.
Seja como for, o processo de medição restringe-se à comparação entre a grandeza a ser medida e um padrão, passando por uma certa subjetividade da leitura de quem está fazendo a medida.
Incerteza de uma medida
Em geral, toda grandeza física tem um VALOR VERDADEIRO. O valor verdadeiro é o valor exato da grandeza. O ERRO de uma medida é a diferença entre o valor da medida e o valor verdadeiro da grandeza em questão. Como toda medida física possui erros, isto é, como não há medida física exata, o valor verdadeiro de uma grandeza e, conseqüentemente, o erro de sua medida (que são idealizados) só podem ser conhecidos aproximadamente. No entanto, pode-se definir a INCERTEZA DE UMA MEDIDA, que delimita um intervalo de confiança (ao redor da medida) onde provavelmente se encontra o valor verdadeiro da grandeza. Se a incerteza associada a uma medida é “pequena”, dizemos que a medida é PRECISA. Por outro lado, se a incerteza associada a uma medida é “grande”, dizemos que a medida é APROXIMADA.
Acurácia e precisão
A ACURÁCIA (ou exatidão) de uma medida é um conceito qualitativo e refere-se a quanto os valores medidos se aproximam do valor verdadeiro da grandeza. Para verificar a acurácia de uma medida deve-se comparar o valor da mesma com o valor verdadeiro da grandeza. Quanto maior a acurácia de uma medida mais o seu valor se aproxima do valor verdadeiro da grandeza.
A PRECISÃO de uma medida, também, é um conceito qualitativo e é usado para caracterizar a magnitude dos erros presentes na medida. Quanto menor a magnitude dos erros maior a precisão da medida. Por exemplo, quando medimos um comprimento usando uma régua, o erro instrumental associado à medida é definido pela incerteza que sua escala de leitura proporciona. A Fig. 1 ilustra a diferença entre precisão e acurácia. O ponto no centro representa o valor verdadeiro (valor procurado) enquanto que cada ponto representa uma medida experimental. Para termos uma boa medida experimental precisamos de boa acurácia e boa precisão. Observa-se que medidas com boa precisão não implicam em medidas com boa acurácia, pois podem estar afetadas por erros sistemáticos.
Figura 1: A: acurado e preciso; B: preciso, mas pouco acurado; C: acurado, mas pouco preciso; D:
pouco acurado e pouco preciso.
Erros experimentais
ERROS ESTATÍSTICOS são resultantes de variações da medida devido a fatores que não são controlados, ou que não podem ser controlados pelo experimentador. Eles afetam a medida, levando o resultado abaixo ou acima do valor verdadeiro da grandeza. Erros estatísticos podem ser causados por variações ambientais, reflexos variáveis do operador etc. Por exemplo, se estamos realizando uma medida de massa em uma balança muito sensível, a presença de correntes de ar e vibrações alteram aleatoriamente o resultado. Os erros estatísticos podem ser reduzido se minimizados os fatores aleatórios que interferem na medida em que estamos realizando. Também podemos reduzí-los repetindo várias vezes a mesma medida. Esse procedimento permite avaliar a incerteza estatística do resultado final, como veremos adiante.
ERROS SISTEMÁTICOS têm causas muito diversas, mas influem na medida sempre num mesmo sentido, para mais ou para menos em relação ao seu valor verdadeiro. Esses erros podem ser provenientes da calibração errada de uma régua, ou de uma calibração que se altera em função da temperatura local, ao tempo de resposta do operador que sempre se atrasa ou se adianta para realizar uma medida, a um operador que sempre superestima ou subestima os valores medidos, a uma falha de procedimento do operador, ao efeito de paralaxe na leitura de escalas, a efeitos ambientais (temperatura, umidade, luz, etc) nas medidas. Se não conhecemos o valor verdadeiro da grandeza que estamos medindo, erros sistemáticos podem, facilmente, passar desapercebidos. Os erros sistemáticos podem ser reduzidos controlando os fatores ambienteis, com procedimentos cuidadosos na aquisição de dados, calibrando os instrumentos etc. Se conhecemos a magnitude dos erros sistemáticos podemos levá-los em conta na apresentação dos resultados finais.
ERROS GROSSEIROS não são erros do ponto de vista da teoria de erros, são considerados enganos que o operador comete durante a medição ou nos cálculos durante a análise dos dados. Se um erro grosseiro for identificado em uma medida, ela deve ser refeita, se possível, ou eliminada do conjunto de dados. Esse tipo de erro pode ser evitado se o operador for cuidadoso nas medidas, nos cálculos e ANALISAR CRITERIOSAMENTE os resultados.
Além desses erros associados ao ato de medir, temos o erro associado ao instrumento utilizado. Por exemplo, uma régua comum não permite medidas precisas inferiores a 1 mm. Isso
porque não há como subdividir o menor espaço disponível na escala da régua (1 mm). Em geral, o erro associado a cada instrumento é definido como a metade da menor divisão da escala utilizada.
No caso da régua o erro seria 0.5 mm.
Série de medições
Normalmente, faz-se várias medições da mesma grandeza constituindo uma série de medições. O exemplo abaixo constitue de 50 medições do comprimento de um segmento de reta.
5,11 4,90 5,07 4,86 4,92 4,85 4,85 5,06 4,95 5,00 5,06 4,96 4,91 5,10 4,80 5,13 4,82 4,94 4,97 4,87 5,04 4,97 5,07 4,88 4,98 5,00 4,88 5,05 5,04 4,91 5,09 4,98 5,01 4,96 4,81 4,95 4,83 4,84 5,02 5,08 4,93 4,99 4,93 5,03 4,89 5,02 4,81 4,92 4,99 5,01
Obtém-se a representação gráfica denominada de histograma, classificado-se as medições por intervalos : as que ficam entre 4,90 e 4,94; as que caem entre 4,95 e 4,99 e assim por diante.
Intervalos 4,80 – 4,84 4,85 – 4,89 4,90 – 4,94 4,95 – 4,99 5,00 – 5,04 5,05 – 5,09 5,10 – 5,14 Número de
medições
6 7 8 10 9 7 3
freqüência relativa
0,12 0,14 0,16 0,20 0,18 0,14 0,06
A freqüência relativa multiplicada por 100, fornece a distribuição percentual das medições. Assim, entre 4,80 e 4,84 a freqüência relativa é 0,12 ou 12% das medições pertencem a esse intervalo.
Entre 4,80 e 4,94 caem 42% das medições. Dessa forma, se realizada a 51ª medida, haveria 42% de probabilidade de estar entre 4,80 e 4,94.
Pode-se prever que com um número suficientemente grande de medições, a distribuição de medidas da série tenderá a uma distribuição limite em que o valor médio da série de medidas: a média <x> de um conjunto de medidas A1; A2; ...; An.
equação do valor médio:
tenderá ao valor verdadeiro da medida.
Desvio da série
Ao obter uma série de medidas, podemos estimar um desvio, ou melhor dizendo, um intervalo de confiança na qual tem-se uma alta probabilidade do valor verdadeiro esteja contido nesse intervalo.
Esse desvio, conhecido como desvio padrão ( ) da série é dado por:σ
equação do desvio padrão :
onde Ai é a i-ésima medição da série, <x> é o valor médio da série e n é o número de medições da série.
No limite onde o número de medições seja suficientemente grande, a largura da distribuição é dado pelo desvio padrão da série, o que garante que qualquer nova medição terá 68% de probabilidade de cair no intervalo estimado.
Apresentação dos dados
Além do desvio padrão há, como vimos, o erro instrumental na qual deve-se levar em consideração numa análise de erros. O erro final obtido na medida de uma série será:
Ilustração 2: Distribuição de probabilidade dos resutados da medição de uma grandeza em torno de um valor médio m
σfinal=
√
((σest)2+(σinst)2)A forma de apresentar um valor físico deve conter somente algarismos significativos. Algarismos significativos são os dígitos conhecidos numa medição. O uso correto dos algarismos significativos assegura a representação correta da incerteza numa medição. O dígito mais à direita será o único dígito afetado pela incerteza experimental.
A contagem é feita da esquerda para a direita, começando no primeiro algarismo não nulo e terminando no primeiro algarismo afetado pela incerteza. O zero à direita do ponto decimal conta como algarismo significativo ao contrário do que acontece com os zeros à esquerda.
Os números seguintes têm 3 algarismos significativos:
0.00231 0.231 2.31 23.1 231
Os zeros dão freqüentemente origem a confusões. Se pretendemos escrever o número 2310 o mais adequado é usar notação científica e escrevemos 2.31 × 103 se o zero não tem significado físico, e temos 3 algarismos significativos, ou 2.310 × 103 se a precisão do resultado inclui aquele dígito, e temos 4 algarismos significativos. Quando o resultado de uma medição é corretamente representado em notação científica todos os dígitos são significativos.
O resultado final da medição de uma grandeza R, obtida direta ou indiretamente, e da incerteza associada é apresentado na forma R ± R. R e R devem, para facilitar a comparação, estar na∆ ∆ mesma unidade e, quando em notação científica, com os mesmos expoentes da potência de 10.
Qualquer das seguintes formas para representar o resultado 25.32 cm, de uma medição feita com uma régua, está correta:
(25.32 ± 0.05) cm (253.2 ± 0.5) mm
(2.532 ± 0.005) × 10-2 m.
Sempre que possível os dados devem aparecer sob a forma de tabelas. As regras da sua apresentação são sempre regras de bom senso. Devem permitir identi car claramente as grandezas medidas e afi precisão com que foram tomadas as medidas, sem conter informação repetida.
A representação gráfica dos valores obtidos é, em muitas situações, uma ferramenta de trabalho indispensável, quer porque nos pode permitir conhecer o tipo de relação entre duas grandezas:
linear, quadrática, exponencial, .... , quer porque, admitindo conhecida a relação entre aquelas duas grandezas, nos permite conhecer outras grandezas físicas envolvidas. Um gráfico é também um meio poderoso para, de uma forma rápida, transmitirmos a informação mais relevante de um determinado processo. Destas premissas advém os cuidados que devemos pôr no seu traçado.
Em cada um dos eixos deve aparecer claramente a grandeza e a unidade em que está expressa, além de uma escala de leitura fácil (note-se que é só uma escala, não pretende dar informação sobre os algarismos significativos das medições, essa informação consta da tabela). Um outro aspecto muito importante: os pontos experimentais são um elemento fundamental do gráfico, portanto, eles não podem ficar encobertos por qualquer linha, mesmo o traçado correspondente a uma função fisicamente significativa ajustada aos pontos experimentais, deve ser feito em traço no de forma afi respeitar a visualização dos pontos experimentais.
Propagação de erros
Existem certas ocasiões onde a grandeza não é obtida diretamente e sim através de cálculos, onde utilizam-se resultados empíricos, e portanto, afetados por intervalos de dúvida.
Maiores detalhes sobre propagação de erros podem ser obtidos no texto em anexo.