En matemáticas, el análisis de errores es el estudio del tipo y la cantidad de error , o incertidumbre, que puede estar presente en la solución de un problema. Este tema es particularmente prominente en áreas aplicadas como el análisis numérico y las estadísticas .
Análisis de errores en modelado numérico
En la simulación numérica o el modelado de sistemas reales, el análisis de errores se ocupa de los cambios en la salida del modelo, ya que los parámetros del modelo varían alrededor de una media .
Por ejemplo, en un sistema modelado en función de dos variables . El análisis de errores se ocupa de la propagación de los errores numéricos en y (alrededor de valores medios y ) al error en (alrededor de una media ). [1]
En análisis numérico, análisis de errores comprende tanto el análisis de errores hacia adelante y análisis de errores hacia atrás .
Análisis de errores hacia adelante
El análisis de errores hacia adelante implica el análisis de una función que es una aproximación (generalmente un polinomio finito) a una función para determinar los límites del error en la aproximación; es decir, para encontrar tal que . Se desea la evaluación de errores de reenvío en números validados . [2]
Análisis de errores hacia atrás
El análisis de error hacia atrás implica el análisis de la función de aproximación , para determinar los límites de los parámetros tal que el resultado . [3]
El análisis de errores hacia atrás, cuya teoría fue desarrollada y popularizada por James H. Wilkinson , se puede utilizar para establecer que un algoritmo que implementa una función numérica es numéricamente estable. [4] El enfoque básico es mostrar que aunque el resultado calculado, debido a errores de redondeo, no será exactamente correcto, es la solución exacta a un problema cercano con datos de entrada ligeramente perturbados. Si la perturbación requerida es pequeña, del orden de la incertidumbre en los datos de entrada, entonces los resultados son en cierto sentido tan precisos como los datos "merecen". El algoritmo se define entonces como estable hacia atrás . La estabilidad es una medida de la sensibilidad a los errores de redondeo de un procedimiento numérico dado; por el contrario, el número de condición de una función para un problema dado indica la sensibilidad inherente de la función a pequeñas perturbaciones en su entrada y es independiente de la implementación utilizada para resolver el problema. [5]
Aplicaciones
Sistema de Posicionamiento Global
El análisis de errores calculados utilizando el sistema de posicionamiento global es importante para comprender cómo funciona el GPS y para saber qué magnitud de errores se deben esperar. El sistema de posicionamiento global hace correcciones por errores de reloj del receptor y otros efectos, pero todavía hay errores residuales que no se corrigen. El Sistema de Posicionamiento Global (GPS) fue creado por el Departamento de Defensa de los Estados Unidos (DOD) en la década de 1970. Ha llegado a ser ampliamente utilizado para la navegación tanto por el ejército estadounidense como por el público en general.
Simulación de dinámica molecular
En las simulaciones de dinámica molecular (MD), existen errores debido a un muestreo inadecuado del espacio de fase o eventos que ocurren con poca frecuencia, estos conducen al error estadístico debido a la fluctuación aleatoria en las mediciones.
Para una serie de M mediciones de una propiedad fluctuante A , el valor medio es:
Cuando estos M mediciones son independientes, la varianza de la media < A > es:
pero en la mayoría de simulaciones MD, existe una correlación entre la cantidad A en un momento diferente, por lo que la varianza de la media < A > será subestimada como el número efectivo de mediciones independientes es en realidad menor que M . En tales situaciones, reescribimos la varianza como:
dónde es la función de autocorrelación definida por
Luego podemos usar la función de autocorrelación para estimar la barra de error . Afortunadamente, tenemos un método mucho más simple basado en el promedio de bloques . [6]
Verificación de datos científicos
Las mediciones generalmente tienen una pequeña cantidad de error, y las mediciones repetidas del mismo artículo generalmente darán como resultado ligeras diferencias en las lecturas. Estas diferencias se pueden analizar y seguir ciertas propiedades matemáticas y estadísticas conocidas. Si un conjunto de datos parece ser demasiado fiel a la hipótesis, es decir, no aparece la cantidad de error que normalmente habría en tales mediciones, se puede sacar una conclusión de que los datos pueden haber sido falsificados. El análisis de errores por sí solo no suele ser suficiente para demostrar que los datos se han falsificado o fabricado, pero puede proporcionar la evidencia de apoyo necesaria para confirmar las sospechas de mala conducta.
Ver también
Referencias
- ^ James W. Haefner (1996). Modelado de sistemas biológicos: principios y aplicaciones . Saltador. págs. 186-189. ISBN 0412042010.
- ^ Tucker, W. (2011). Números validados: una breve introducción a cálculos rigurosos. Prensa de la Universidad de Princeton.
- ^ Francis J. Scheid (1988). Esquema de la teoría y problemas de análisis numérico de Schaum . Profesional de McGraw-Hill. pp. 11 . ISBN 0070552215.
- ^ James H. Wilkinson; Anthony Ralston (ed.); Edwin D. Reilly (ed.); David Hemmendinger (ed) (8 de septiembre de 2003). "Análisis de errores" en la Enciclopedia de Ciencias de la Computación. págs. 669–674 . Wiley. ISBN 978-0-470-86412-8. Consultado el 14 de mayo de 2013 .CS1 maint: texto adicional: lista de autores ( enlace )
- ^ Bo Einarsson (2005). Precisión y fiabilidad en informática científica . SIAM. págs. 50–. ISBN 978-0-89871-815-7. Consultado el 14 de mayo de 2013 .
- ^ DC Rapaport, El arte de la simulación de dinámica molecular , Cambridge University Press.
enlaces externos
- [1] Todo sobre análisis de errores.