Conceptos Básicos Definiciones El proceso de medición generalmente requiere el uso de un instrumento como medio físico para determinar la magnitud de una variable. Los instrumentos constituyen una extensión de las facultades humanas y en muchos casos permiten a las personas determinar el valor de una cantidad desconocida la cual no podría medirse utilizando las facultades sensoriales. Por lo tanto un instrumento se puede definir así: Dispositivo para determinar el valor o la magnitud de una cantidad o variable. El instrumento electrónico como lo indica su nombre, se basa en principios eléctricos o electrónicos para efectuar una medición, por lo tanto un instrumento electrónico puede ser un aparato relativamente sencillo y de construcción simple, como un medidor básico de corriente directa. Sin embargo, el desarrollo de la tecnología, demanda la elaboración de mejores instrumentos y mas exactos. Esta se ha incrementado, produciéndose nuevos diseños y aplicaciones de instrumentos. Para optimizar el uso de estos dispositivos se necesita entender sus principios de operación y valorar la importancia para las aplicaciones deseadas. El trabajo de medición emplea una serie de términos, los cuales se definen aquí. Instrumento: dispositivo para determinar el valor o la magnitud de una cantidad o variable. Exactitud: Aproximación con la cual la lectura de un instrumento se acerca al valor real de la variable medida.
Precisión: medida de la reproducibilidad de las mediciones; esto es, dado el valor fijo de una variable, la precisión es una medida del grado con el cual las mediciones sucesivas difieren una de otra. Sensibilidad: relación de la señal de salida o respuesta del instrumento respecto al cambio de la entrada o variable medida. Resolución: cambio más pequeño en el valor medido al cual responde el instrumento. Error: Desviación a partir del valor real de la variable medida. Se pueden utilizar varias técnicas para minimizar los efectos de los errores. Por ejemplo, al efectuar mediciones de precisión es más recomendable utilizar una serie de ensayos que confiar en una sola observación. Alternar métodos de medición, como el uso de diferentes instrumentos en el mismo experimento o práctica, es una buena alternativa para aumentar la exactitud. Aunque estas técnicas tienden a aumentar la precisión de las mediciones mediante la reducción de errores ambientales o aleatorios, no evitan el error instrumental. Posteriormente se proporcionara una introducción (en el tema de datos experimentales) a los diferentes tipos de error en las mediciones y los métodos que generalmente se usan para expresar los errores, en términos de los valores más confiables de las mediciones de la variable medida. Exactitud y Precisión Exactitud se refiere al grado de aproximación o conformidad al valor real de la cantidad medida. Precisión es el grado de concordancia dentro de un grupo de mediciones o instrumentos.
Para ilustrar la diferencia entre exactitud y precisión, se puede comparar dos voltímetros analógicos de la misma marca y modelo. Ambos medidores tienen agujas delgadas, escalas con espejo para evitar el paralelaje, y escalas calibradas exactas, por consiguiente, se pueden leer con la misma precisión. Si el valor de la resistencia en serie en uno de los medidores cambia considerablemente, la lectura puede tener un error elevado. Por lo tanto, la exactitud de los medidores puede ser muy diferente. (Para determinar cual medidor esta en error, se deben realizar mediciones de comparación con un medidor de patrón). Además debemos de recordar que la precisión se compone de dos características: conformidad y el número de cifras significativas con las cuales se puede realizar la medición. Consideremos, por ejemplo, que una resistencia cuyo valor real es 1,384,572 se mide con un óhmetro, el cual repetidamente indica 1.4M . Pero el observador ¿puede leer el valor real en la escala? Su estimación de la lectura en la escala marca un valor de 1.4M . Esto está tan cercano al valor real como el que estimar la lectura de la escala. Aunque no haya desviaciones del valor observado, el error creado por las limitaciones de la escala es un error de precisión.
Con frecuencia el principiante se inclina por aceptar el valor real de las lecturas en la caratula del instrumento, y desconoce que la exactitud de las mismas no necesariamente están garantizadas por la precisión. De hecho, una buena técnica de medición requiere un continuo escepticismo respecto a la exactitud de los resultados. Por lo tanto en trabajos críticos, una buena práctica dicta que el observador realice un conjunto independiente de mediciones con diferentes instrumentos o técnicas de medición, no sujetos a los mismos errores sistemáticos. También debe asegurarse de que los
instrumentos funcionen apropiadamente, que est茅n calibrados conforme a un patr贸n conocido y que las influencias externas no afecten la exactitud de las mediciones.