Incertidumbre en Las Mediciones
Incertidumbre en Las Mediciones
Incertidumbre en Las Mediciones
Todo resultado derivado de una medicion esta acompanado de un error o incertidumbre, dado que no se pueden
efectuar medidas libres de errores, lo que se hace es minimizarlos y estimar su tamano con una precision aceptable.
Existen tres tipos de errores asociados con una medida experimental:
• Errores crasos o accidentales: se reconocen rapidamente, son de una magnitud tan importante que no existe
otra alternativa que iniciar de nuevo el experimento. Algunos ejemplos son el daño de un instrumento durante el
ensayo, la perdida accidental de la muestra, la contaminacion de un reactivo.
• Errores sistematicos o determinados: son debidos a las alteraciones operacionales bien definidas en el proceso
analitico, por ejemplo, la presencia de interferencias, contaminación y perdidas por adsorcion en analisis de trazas.
Son indicados por la tendencia de los resultados a ser mayores o menores que el valor verdadero. Se estiman por
la exactitud, que es la desviacion de una medida con respecto a un valor verdadero, y se expresan en terminos de
error absoluto o relativo. Cuando la magnitud es elevada se denominan errores crasos. Estos errores pueden ser
constantes (no dependen del nivel de concentracion del analito) y proporcionales (cuando dependen de el).
• Errores aleatorios o indeterminados: obedecen a fluctuaciones tipicas de la experimentacion. Se presentan
cuando se efectuan varias determinaciones del mismo analito en alicuotas de la misma muestra o cuando se realiza
varias veces una misma medida con el mismo instrumento. Pueden tener diferente magnitud, aunque en general
no muy elevada. Pueden ser aleatoriamente por exceso (+) o por defecto (-) es decir, mayores o menores que la
media; se describen de acuerdo con la distribucion normal de Gauss y se estiman por la precision.
Media: es una medida de tendencia central, se conoce tambien como media aritmética o promedio, se obtiene al
dividir la suma de medidas repetidas entre el numero de mediciones:
Donde:
x. : Concentracion del componente x en la muestra i
n : Numero de determinaciones.
Varianza (s2) : se define como la suma de cuadrados de las desviaciones de las observaciones respecto al valor
medio dividido por (n-1), es de gran interes practico debido a su aditividad, lo que facilita el calculo de la
propagacion de errores.
Desviacion estandar (s): se define como la raiz cuadrada positiva de la varianza, se
expresa en las mismas unidades de los datos de las que proviene.
Coeficiente de variacion (CV): tambien conocido como desviacion estandar relativa (DER)
mide la relacion entre la desviacion tipica de una muestra y su media, permite eliminar la
dimensionalidad de las variables. Esta definido por:
Cartas de control: Las cartas de control o graficos de control, son diagramas especialmente preparados con el
fin de determinar si el proceso se encuentra bajo control estadistico. El elemento principal en el grafico de
control es la muestra de control, que sirve para contruir el grafico y monitorear el estado del procedimiento
analitico.
Sesgo. Es una medida del error sistematico.Contiene dos componentes, uno se deriva del metodo, y el otro del
uso del metodo en el laboratorio. Se mide mediante la realizacion de estudios comparativos de laboratorios en
los que dicho sesgo se define como la diferencia entre el promedio general y el valor de una muestra patron. El
sesgo del laboratorio es la diferencia existente entre la media de resultados del laboratorio y los valores de las
muestras patron, siendo por consiguiente una combinacion de dos sesgos.
Intervalo de confianza: es un rango en el cual se tiene una probabilidad de que el valor verdadero se encuentra
incluido en el. Los limites de los intervalos de confianza se calculan a partir de la informacion de los datos
muestrales. Por ejemplo, el intervalo de confianza para la media de un conjunto de datos esta dado por:
Donde:
L: Limites del intervalo
1-Ot: Confianza de la estimacion
t y = El valor de t de la distribucion student para (n-1) grados de libertad.
Definición de incertidumbre
La definición del término incertidumbre (de medida) es:
“Parámetro asociado al resultado de una medida, que caracteriza la dispersión de los valores que podrían
razonablemente ser atribuidos al mensurando"
NOTA 1 El parámetro puede ser, por ejemplo, una desviación estándar (o un múltiplo de ésta) o la
semiamplitud de un intervalo con un nivel de confianza determinado.
NOTA 2 La incertidumbre de medida comprende, en general, varios componentes. Algunos pueden ser
evaluados a partir de la distribución estadística de los resultados de series de mediciones, y pueden
caracterizarse por sus Desviaciones estándar experimentales. Los otros componentes, que también
pueden ser caracterizados por desviaciones estándar, se evalúan asumiendo distribuciones de
probabilidad, basadas en la experiencia adquirida o en otras informaciones.
NOTA 3 Se entiende que el resultado de la medición es la mejor estimación del valor del mensurando, y que
todos los componentes de la incertidumbre, comprendidos los que provienen de efectos sistemáticos,
tales como los componentes asociados a las correcciones y a los patrones de referencia, contribuyen
a la dispersión.
En algunos casos en análisis químico, el mensurando será la concentración del analito.
Independientemente del análisis químico utilizado para medir otras cantidades, p. ej. Color, pH, etc., se
utilizará el término general "mensurando".
La definición de incertidumbre dada anteriormente se centra en el rango de valores que el analista cree
que puede ser atribuido razonablemente al mensurando.
De forma general, la palabra incertidumbre está relacionada con el concepto general de duda.
Fuentes de incertidumbre
En la práctica, la incertidumbre de un resultado puede surgir de algunas posibles fuentes, siendo algunos
ejemplos: el muestreo, efectos de matriz e interferencias, condiciones ambientales, incertidumbres de equipos
másicos o volumétricos, valores de referencia, aproximaciones y asunciones incorporadas en el método de
medida y procedimiento, y variaciones aleatorias
Componentes de la incertidumbre
Al estimar la incertidumbre global, puede ser necesario tomar cada fuente de incertidumbre y tratarla de forma
separada para obtener la contribución de esa fuente. Cada una de las contribuciones separadas a la
incertidumbre es un componente de la incertidumbre. Cuando se expresa como desviación estándar, un
componente de la incertidumbre se conoce como incertidumbre estándar Si hay una correlación entre algunos
de los componentes entonces esto tiene que tenerse en cuenta mediante la determinación de la covarianza.
Sin embargo, a menudo es posible evaluar el efecto combinado de diversos componentes. Esto puede reducir
el esfuerzo global y, cuando los componentes cuyas contribuciones se evalúan conjuntamente están
correlacionados, puede entonces que no sea necesario considerar la correlación.
Para la mayor parte de los propósitos en química analítica, se debería utilizar la incertidumbre expandida U. La
incertidumbre expandida proporciona un intervalo en el que se cree que está el valor del mensurando con un
mayor nivel de confianza. La U se obtiene multiplicando uc(y), la incertidumbre estándar combinada, por un
factor de cobertura k. La elección del factor k se basa en el nivel de confianza que se desea. Para un nivel
aproximado de confianza del 95%, k es habitualmente 2.
NOTA El factor de cobertura k debería establecerse siempre de forma que la incertidumbre estándar
combinada de la cantidad medida se pueda recuperar para utilizarla en el cálculo de la incertidumbre
estándar combinada del resultado de otra medición que pueda depender de esa cantidad.
Error e incertidumbre
Es importante distinguir entre error e incertidumbre. Error se define como la diferencia entre un resultado
individual y el valor verdadero del mensurando. En la práctica, el error de una medida observada es la
diferencia entre el valor observado y el valor de referencia. El error, como tal – ya sea teórico u observado – es
un solo valor. En principio, el valor de un error conocido puede aplicarse como la corrección al resultado.
NOTA El error es un concepto idealizado y los errores no se pueden conocer exactamente.
La incertidumbre, por otra parte, toma la forma de un rango o un intervalo, y si se estima para un
procedimiento y tipo de muestra definida, puede aplicar a todas las determinaciones realizadas del mismo
modo. En general, el valor de la incertidumbre no se puede utilizar para corregir un resultado de medida.
Para ilustrar aún más la diferencia, el resultado de un análisis tras la corrección puede estar por casualidad muy
cerca del valor del mensurando, y por lo tanto tener un error despreciable. Sin embargo, la incertidumbre
puede ser grande, simplemente porque el analista no está seguro de cuán cerca está el resultado del valor del
mensurando.
La incertidumbre del resultado de una medida no debería nunca interpretarse como el error en sí mismo, ni
como el error tras la corrección.
Se considera que un error tiene dos componentes, llamadas componente aleatoria y componente sistemática.
Error aleatorio aparece de las variaciones impredecibles de las magnitudes de influencia. Estos efectos
aleatorios producen variaciones en observaciones repetidas del mensurando. El error aleatorio de un resultado
analítico no puede ser compensado, pero puede reducirse aumentando el número de observaciones.
Error sistemático se define como la componente del error que, en el transcurso de una cantidad de análisis del
mismo mensurando, permanece constante o varía de forma predecible. No depende del número de medidas
realizadas y no se puede reducir al aumentar el número de análisis bajo condiciones de medida constantes.
Los errores sistemáticos constantes tales como un fallo al preparar una cantidad de blanco en un ensayo, o
inexactitudes en la calibración de un instrumento multi-punto son constantes para un nivel dado del valor de
medida pero pueden variar con el nivel del valor de medida.
Los efectos que cambian sistemáticamente en magnitud durante series de análisis, causadas por ejemplo, por
un control inadecuado de las condiciones experimentales, dan lugar a errores sistemáticos que no son
constantes.
Límite de detección. Durante la validación del método, el límite de detección se determina normalmente
solamente para establecer el valor más bajo del rango de trabajo práctico. Aunque las incertidumbres cerca
del límite de detección requieren una consideración cuidadosa y un tratamiento especial, el límite de detección,
como se haya determinado, no tiene un repercusión directa en la estimación de la incertidumbre.
Robustez o solidez. Algunos desarrollos de métodos o protocolos de validación requieren que la sensibilidad a
determinados parámetros sea estudiada directamente. Esto se hace habitualmente mediante un 'estudio de
solidez' preliminar, en el cual se observa el cambio de uno o más parámetros. Si es significativo (en comparación
con precisión del estudio de solidez) se llevará a cabo un estudio más detallado para medir la dimensión del
efecto, y elegir un rango de trabajo en consecuencia. Los datos del estudio de solidez proporcionan información
sobre el efecto de parámetros importantes.
Selectividad. La “Selectividad” está relacionada con el grado en el que un método responde únicamente al
analito requerido. Los estudios de selectividad buscan habitualmente los efectos de los interferentes más
probables, usualmente mediante la adición del interferente potencial tanto al blanco como a las muestras
fortificadas y observando la respuesta. Los resultados se utilizan normalmente para demostrar que los efectos
en la práctica no son significativos. Sin embargo, ya que los estudios miden los cambios en las respuestas
directamente, es posible utilizar los datos para estimar la incertidumbre asociada con las interferencias
potenciales, a un rango de concentración de interferente dado conocido.
Trazabilidad
Es importante ser capaces de poder confiar en la comparación de resultados de diferentes laboratorios, o del
mismo laboratorio en diferentes momentos. Esto se consigue asegurando que todos los laboratorios utilizan la
misma escala de medida, o los mismos 'puntos de referencia'. En algunos casos esto se logra estableciendo una
cadena de calibraciones que llegan hasta los patrones primarios nacionales o internacionales, idealmente (para
ser coherentes a largo plazo) a las unidades de medida del Sistema Internacional. Un ejemplo conocido es el
caso de las balanzas analíticas; cada balanza se calibra utilizando masas de referencia que se comprueban (en
primera instancia) contra los patrones nacionales, y así sucesivamente hasta el kilogramo referencia primario.
Esta cadena ininterrumpida de comparaciones que lleva a un valor de referencia conocido, proporciona
'trazabilidad' en un punto de referencia común, asegurando que diferentes operadores están utilizando las
mismas unidades de medida. En mediciones de rutina, la coherencia de los valores entre un laboratorio (o
momento) y otro se ve en gran medida soportada por el establecimiento de trazabilidad en todas las medidas
intermedias utilizadas para obtener o controlar un resultado de medida. La trazabilidad es por tanto un
concepto importante en todos los tipos de mediciones.
La trazabilidad se define formalmente como:
“trazabilidad metrológica: propiedad de un resultado de medida por la cual el resultado puede relacionarse
con una referencia mediante una cadena ininterrumpida y documentada de calibraciones, cada una de las
cuales contribuye a la incertidumbre de medida”
Estimar la dimensión de los componentes de la incertidumbre asociada con cada fuente potencial
identificada de incertidumbre. A menudo es posible estimar o determinar una contribución única a la
incertidumbre con varias fuentes separadas utilizando los datos de los estudios de validación, datos de
CC, etc.
Paso 4. Calcular la incertidumbre combinada La información obtenida en el paso 3 consistirá en
varias contribuciones cuantificadas a la incertidumbre global, bien asociadas
con fuentes individuales o con efectos combinados de varias fuentes. Las contribuciones se
expresan como desviaciones estándar, y se combinan según las reglas
apropiadas para dar una incertidumbre estándar combinada. El factor de
cobertura apropiado debería aplicarse para dar la incertidumbre expandida.
Efectos de la muestra
La recuperación de un analito en una matriz compleja, o la respuesta de un instrumento, pueden
verse afectadas por la composición de la matriz. La especiación del analito puede agravar este
efecto.
La estabilidad de la muestra/analito puede cambiar durante el análisis debido a cambios en el
régimen térmico o a efectos fotolíticos.
Cuando se utiliza la ‘adición’ para estimar la recuperación, la recuperación del analito en la muestra
puede ser diferente de la recuperación de la adición, introduciendo una incertidumbre que tiene
que evaluarse.
Efectos computacionales
La selección de un modelo de calibración, ej. utilizando un modelo de línea recta de calibración en
una respuesta curva, lleva a un peor ajuste y a una incertidumbre mayor.
Truncar y redondear pueden llevar a inexactitudes en el resultado final. Ya que esto es raramente
predecible, puede ser necesaria la asignación de incertidumbre.
Corrección del blanco
Puede haber incertidumbre tanto en el valor como en la adecuación de la corrección del blanco.
Esto es particularmente importante en análisis de trazas.
Efectos del operador
Posibilidad de valores consistentemente bajos o altos en la lectura de un medidor o de escala.
Posibilidad de hacer interpretaciones del método ligeramente diferentes.
Efectos aleatorios
Los efectos aleatorios contribuyen a la incertidumbre en todas las determinaciones. Esta entrada
debería incluirse en la lista automáticamente.