100% encontró este documento útil (1 voto)
90 vistas2 páginas

Tema 1.2

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1/ 2

Tema 1.

2 Conceptos básicos: cifra significativa, precisión, exactitud, incertidumbre


y sesgo.

Introducción

Aproximar un numero ciertas cifras decimales consiste en encontrar un numero con las
cifras pedidas que este muy próximo al número dado. En la aproximación por defecto se
busca el número con un determinado número de cifras que es menor que el dado. La
aproximación por exceso es cuando el numero con las cifras decimales fijadas es
inmediatamente mayor al número dado.

Ejemplo:

1.3456
a) por defecto se aproxima a 1.34
b) por exceso se aproxima a 1.35

En algunos conceptos básicos de los métodos numéricos se puede encontrar las


siguientes cifras significativas, precisión, exactitud, incertidumbre, y sesgo. Forman parte
de las aproximaciones y predicciones numéricas más adecuadas.

Las cifras significativas son también conocidas como dígitos significativos y se


desarrollaron para designar formalmente la confiabilidad de un valor numérico. Él número
de cifras significativas es él número de dígitos más un dígito estimado que se pueda usar
con confianza.

Cuando se emplea un número en un cálculo, debe haber seguridad de que pueda usarse
con confianza. El concepto de cifras significativas tiene dos implicaciones importantes en
el estudio de los métodos numéricos.

1. Los métodos numéricos obtienen resultados aproximados. Por lo tanto, se debe


desarrollar criterios para especificar qué tan precisos son los resultados obtenidos.

2. Aunque ciertos números representan número específicos, no se pueden expresar


exactamente con un número finito de cifras. A la omisión del resto de cifras
significativas se le conoce como error de redondeo.

Precisión.

La precisión se refiere a la dispersión del conjunto de valores obtenidos de mediciones


repetidas de una magnitud. Cuanto menor es la dispersión mayor la precisión. Es decir, la
precisión se refiere a qué tan cercano está un valor individual medido o calculado
respecto a los otros. En pocas palabras esto es lo cerca que los valores medidos están
unos de otros.

Se puede decir entonces que la precisión en Métodos Numéricos se refiere:

1) Al número de cifras significativas que representan una cantidad


2) la extensión en las lecturas repetidas de un instrumento que mide alguna propiedad
física.
Es importante mencionar que los datos precisos pueden ser inexactos. Obtener datos
altamente precisos puede ser verdaderamente difícil y costoso.

Exactitud.

La exactitud se refiere a que tan cercano está el valor calculado del valor verdadero. Es
decir, es la aproximación de un número al valor numérico que se supone representa.

Se puede decir entonces que la exactitud es el grado de concordancia entre el valor


verdadero y el obtenido.

Por tanto, la exactitud se expresa como suma de dos términos: la precisión y la veracidad.

Incertidumbre.

Incertidumbre es la expresión del grado de desconocimiento de un resultado.

Esto es que incertidumbre refleja, por tanto, duda acerca de la veracidad del resultado
obtenido una vez que se han evaluado todas las posibles fuentes de error y que se han
aplicado las correcciones oportunas. Se refiere al grado de alejamiento entre sí, a las
diversas aproximaciones a un valor verdadero.

Entonces la incertidumbre nos da una idea de la calidad del resultado ya que nos muestra
un intervalo alrededor del valor estimado dentro del cual se encuentra el valor
considerado verdadero.

La incertidumbre puede derivarse de una falta de información Puede tener varios tipos de
origen, por ejemplo, errores cuantificables en los datos.

Sesgo.

La inexactitud es conocida como sesgo se refiere a que tan cercano está el valor
calculado del valor verdadero.

Es decir, sesgo es un error que aparece en los resultados.es entonces un alejamiento


sistemático del valor verdadero a calcular.

Un sesgo es un error sistemático que hace que todas las medidas estén desviadas en una
cierta cantidad. También se dice que es una característica de una medición o de una
estimación estadística tal que los resultados obtenidos al repetir la medición o la
estimación están afectados por errores sistemáticos en relación con el valor
convencionalmente verdadero.

También podría gustarte