La cuantificación de la incertidumbre ( UQ ) es la ciencia de la caracterización cuantitativa y la reducción de las incertidumbres tanto en aplicaciones computacionales como en el mundo real. Intenta determinar qué tan probables son ciertos resultados si algunos aspectos del sistema no se conocen con exactitud. Un ejemplo sería predecir la aceleración de un cuerpo humano en un choque frontal con otro automóvil: incluso si se conociera exactamente la velocidad, pequeñas diferencias en la fabricación de automóviles individuales, con qué fuerza se ha apretado cada perno, etc. conducirá a resultados diferentes que solo pueden predecirse en un sentido estadístico.
Muchos problemas de las ciencias naturales y la ingeniería también están plagados de fuentes de incertidumbre. Los experimentos por computadora sobre simulaciones por computadora son el enfoque más común para estudiar problemas en la cuantificación de la incertidumbre. [1] [2] [3]
Fuentes de incertidumbre
La incertidumbre puede entrar en modelos matemáticos y mediciones experimentales en varios contextos. Una forma de categorizar las fuentes de incertidumbre es considerar: [4]
- Incertidumbre de los parámetros
- Esto proviene de los parámetros del modelo que son entradas al modelo de computadora (modelo matemático) pero cuyos valores exactos son desconocidos para los experimentadores y no pueden controlarse en experimentos físicos, o cuyos valores no pueden inferirse exactamente por métodos estadísticos . Algunos ejemplos de esto son la aceleración de caída libre local en un experimento de caída de objetos, varias propiedades materiales en un análisis de elementos finitos para ingeniería y la incertidumbre del multiplicador en el contexto de la optimización de la política macroeconómica .
- Variabilidad paramétrica
- Esto proviene de la variabilidad de las variables de entrada del modelo. Por ejemplo, las dimensiones de una pieza de trabajo en un proceso de fabricación pueden no ser exactamente las diseñadas e instruidas, lo que causaría variabilidad en su desempeño.
- Incertidumbre estructural
- También conocido como insuficiencia del modelo, sesgo del modelo o discrepancia del modelo, esto proviene de la falta de conocimiento de la física subyacente en el problema. Depende de la precisión con la que un modelo matemático describa el verdadero sistema para una situación de la vida real, considerando el hecho de que los modelos casi siempre son solo aproximaciones a la realidad. Un ejemplo es cuando se modela el proceso de caída de un objeto utilizando el modelo de caída libre; el modelo en sí es inexacto ya que siempre existe fricción de aire. En este caso, incluso si no hay un parámetro desconocido en el modelo, todavía se espera una discrepancia entre el modelo y la física verdadera.
- Incertidumbre algorítmica
- También conocido como incertidumbre numérica o incertidumbre discreta. Este tipo proviene de errores numéricos y aproximaciones numéricas por implementación del modelo informático. La mayoría de los modelos son demasiado complicados para resolverlos con exactitud. Por ejemplo, el método de elementos finitos o el método de diferencias finitas pueden usarse para aproximar la solución de una ecuación diferencial parcial (que introduce errores numéricos). Otros ejemplos son la integración numérica y el truncamiento de suma infinita que son aproximaciones necesarias en la implementación numérica.
- Incertidumbre experimental
- También conocido como error de observación, proviene de la variabilidad de las medidas experimentales. La incertidumbre experimental es inevitable y se puede notar repitiendo una medición muchas veces usando exactamente la misma configuración para todas las entradas / variables.
- Incertidumbre de interpolación
- Esto se debe a la falta de datos disponibles recopilados a partir de simulaciones de modelos informáticos y / o mediciones experimentales. Para otras configuraciones de entrada que no tienen datos de simulación o mediciones experimentales, se debe interpolar o extrapolar para predecir las respuestas correspondientes.
Incertidumbre aleatórica y epistémica
La incertidumbre a veces se clasifica en dos categorías, [5] [6] que se ve de manera prominente en aplicaciones médicas. [7]
- Incertidumbre aleatorica
- La incertidumbre aleatorica también se conoce como incertidumbre estadística y es representativa de las incógnitas que difieren cada vez que realizamos el mismo experimento. Por ejemplo, un solo disparo de flecha con un arco mecánico que duplica exactamente cada lanzamiento (la misma aceleración, altitud, dirección y velocidad final) no impactará todos en el mismo punto del objetivo debido a vibraciones aleatorias y complicadas del eje de la flecha, el cuyo conocimiento no puede determinarse lo suficiente como para eliminar la dispersión resultante de los puntos de impacto. El argumento aquí está obviamente en la definición de "no se puede". El hecho de que no podamos medir lo suficiente con nuestros dispositivos de medición actualmente disponibles no excluye necesariamente la existencia de dicha información, lo que movería esta incertidumbre a la siguiente categoría. Aleatoric se deriva del latín alea o dice, refiriéndose a un juego de azar.
- Incertidumbre epistémica
- La incertidumbre epistémica también se conoce como incertidumbre sistemática y se debe a cosas que, en principio, se podrían saber pero que no se conocen en la práctica. Esto puede deberse a que una medición no es precisa, a que el modelo ignora ciertos efectos o a que determinados datos se han ocultado deliberadamente. Un ejemplo de una fuente de esta incertidumbre sería el arrastre en un experimento diseñado para medir la aceleración de la gravedad cerca de la superficie terrestre. La aceleración gravitacional comúnmente utilizada de 9.8 m / s ^ 2 ignora los efectos de la resistencia del aire, pero la resistencia del aire para el objeto podría medirse e incorporarse al experimento para reducir la incertidumbre resultante en el cálculo de la aceleración gravitacional.
En aplicaciones de la vida real, ambos tipos de incertidumbres están presentes. La cuantificación de la incertidumbre pretende expresar explícitamente ambos tipos de incertidumbre por separado. La cuantificación de las incertidumbres aleatorias puede ser relativamente sencilla, donde la probabilidad tradicional (frecuentista) es la forma más básica. Con frecuencia se utilizan técnicas como el método de Monte Carlo . Una distribución de probabilidad se puede representar por sus momentos (en el caso gaussiano , la media y la covarianza son suficientes, aunque, en general, incluso el conocimiento de todos los momentos hasta un orden arbitrariamente alto todavía no especifica la función de distribución de manera única), o más recientemente, por técnicas como Karhunen-Loève y expansiones polinomiales del caos . Para evaluar las incertidumbres epistémicas, se hacen esfuerzos para comprender el (desconocimiento) del sistema, proceso o mecanismo. La representación de la incertidumbre epistémica puede basarse en métodos tales como análisis de límites de probabilidad , lógica difusa o teorías de evidencia / creencia como la lógica subjetiva o la teoría de Dempster-Shafer (donde la incertidumbre epistémica se representa como vacuidad de creencia).
Perspectiva matemática de la incertidumbre aleatoria y epistémica
En matemáticas, la incertidumbre se caracteriza a menudo en términos de una distribución de probabilidad . Desde esa perspectiva, la incertidumbre epistémica significa no estar seguro de cuál es la distribución de probabilidad relevante, y la incertidumbre aleatoria significa no estar seguro de cuál será una muestra aleatoria extraída de una distribución de probabilidad.
Dos tipos de problemas de cuantificación de la incertidumbre
Hay dos tipos principales de problemas en la cuantificación de la incertidumbre: uno es la propagación directa de la incertidumbre (donde las diversas fuentes de incertidumbre se propagan a través del modelo para predecir la incertidumbre general en la respuesta del sistema) y el otro es la evaluación inversa de la incertidumbre del modelo. e incertidumbre de los parámetros (donde los parámetros del modelo se calibran simultáneamente utilizando datos de prueba). Ha habido una proliferación de investigaciones sobre el primer problema y la mayoría de las técnicas de análisis de incertidumbre se desarrollaron para él. Por otro lado, este último problema está atrayendo cada vez más la atención de la comunidad de diseño de ingeniería, ya que la cuantificación de la incertidumbre de un modelo y las predicciones posteriores de la respuesta o respuestas reales del sistema son de gran interés en el diseño de sistemas robustos.
Propagación de incertidumbre hacia adelante
La propagación de la incertidumbre es la cuantificación de las incertidumbres en las salidas del sistema que se propagan a partir de las entradas inciertas. Se centra en la influencia en los resultados de la variabilidad paramétrica enumerada en las fuentes de incertidumbre. Los objetivos del análisis de propagación de la incertidumbre pueden ser:
- Evaluar momentos de bajo orden de las salidas, es decir , media y varianza .
- Evaluar la confiabilidad de las salidas. Esto es especialmente útil en la ingeniería de confiabilidad, donde las salidas de un sistema suelen estar estrechamente relacionadas con el rendimiento del sistema.
- Evaluar la distribución de probabilidad completa de los productos. Esto es útil en el escenario de optimización de la utilidad donde se utiliza la distribución completa para calcular la utilidad.
Cuantificación inversa de la incertidumbre
Dadas algunas mediciones experimentales de un sistema y algunos resultados de simulación por computadora de su modelo matemático, la cuantificación de la incertidumbre inversa estima la discrepancia entre el experimento y el modelo matemático (que se llama corrección de sesgo ), y estima los valores de parámetros desconocidos en el modelo si existe son cualquiera (lo que se denomina calibración de parámetros o simplemente calibración ). Generalmente, este es un problema mucho más difícil que la propagación de la incertidumbre hacia adelante; sin embargo, es de gran importancia ya que normalmente se implementa en un proceso de actualización del modelo. Hay varios escenarios en la cuantificación de la incertidumbre inversa:
Solo corrección de sesgo
La corrección de sesgo cuantifica la insuficiencia del modelo , es decir, la discrepancia entre el experimento y el modelo matemático. La fórmula general de actualización del modelo para la corrección de sesgos es:
dónde denota las medidas experimentales en función de varias variables de entrada , denota la respuesta del modelo informático (modelo matemático), denota la función de discrepancia aditiva (también conocida como función de sesgo), y denota la incertidumbre experimental. El objetivo es estimar la función de discrepancia, y como subproducto, el modelo actualizado resultante es . Se proporciona un intervalo de confianza de predicción con el modelo actualizado como la cuantificación de la incertidumbre.
Solo calibración de parámetros
La calibración de parámetros estima los valores de uno o más parámetros desconocidos en un modelo matemático. La formulación general de actualización del modelo para la calibración es:
dónde denota la respuesta del modelo de computadora que depende de varios parámetros desconocidos del modelo , y denota los valores verdaderos de los parámetros desconocidos en el curso de experimentos. El objetivo es estimar, o para llegar a una distribución de probabilidad de que abarca el mejor conocimiento de los verdaderos valores de los parámetros.
Corrección de sesgo y calibración de parámetros
Considera un modelo inexacto con uno o más parámetros desconocidos, y su formulación de actualización del modelo combina los dos juntos:
Es la formulación de actualización de modelos más completa que incluye todas las posibles fuentes de incertidumbre y requiere el mayor esfuerzo para resolver.
Metodologías selectivas para la cuantificación de la incertidumbre
Se han realizado muchas investigaciones para resolver los problemas de cuantificación de la incertidumbre, aunque la mayoría de ellos se ocupan de la propagación de la incertidumbre. Durante las últimas una o dos décadas, también se han desarrollado varios enfoques para los problemas de cuantificación de la incertidumbre inversa que han demostrado ser útiles para la mayoría de los problemas de pequeña y mediana escala.
Metodologías para la propagación de la incertidumbre hacia adelante
Los enfoques de propagación de la incertidumbre existentes incluyen enfoques probabilísticos y enfoques no probabilísticos. Básicamente, existen cinco categorías de enfoques probabilísticos para la propagación de la incertidumbre: [8]
- Métodos basados en simulación: simulaciones de Monte Carlo , muestreo de importancia , muestreo adaptativo, etc.
- Métodos basados en la expansión local: serie de Taylor, método de perturbación , etc. Estos métodos tienen ventajas cuando se trata de una variabilidad de entrada relativamente pequeña y de salidas que no expresan una alta no linealidad. Estos métodos lineales o linealizados se detallan en el artículo Propagación de la incertidumbre .
- Métodos basados en expansión funcional: expansión de Neumann, expansiones ortogonales o de Karhunen-Loeve (KLE), con expansión de caos polinomial (PCE) y expansiones de ondículas como casos especiales.
- Métodos basados en el punto más probable (MPP): método de confiabilidad de primer orden (FORM) y método de confiabilidad de segundo orden (SORM).
- Métodos basados en la integración numérica: Integración numérica factorial completa (FFNI) y reducción de dimensión (DR).
Para los enfoques no probabilísticos, el análisis de intervalos , [9] la teoría difusa , la teoría de la posibilidad y la teoría de la evidencia se encuentran entre los más utilizados.
El enfoque probabilístico se considera el enfoque más riguroso para el análisis de incertidumbre en el diseño de ingeniería debido a su coherencia con la teoría del análisis de decisiones. Su piedra angular es el cálculo de las funciones de densidad de probabilidad para las estadísticas de muestreo. [10] Esto se puede realizar de forma rigurosa para las variables aleatorias que se pueden obtener como transformaciones de las variables gaussianas, lo que conduce a intervalos de confianza exactos.
Metodologías para la cuantificación de la incertidumbre inversa
Frecuente
En el análisis de regresión y los problemas de mínimos cuadrados , el error estándar de las estimaciones de los parámetros está fácilmente disponible, que se puede expandir a un intervalo de confianza .
Bayesiano
Existen varias metodologías para la cuantificación de la incertidumbre inversa bajo el marco bayesiano . La dirección más complicada es apuntar a resolver problemas tanto con la corrección de sesgo como con la calibración de parámetros. Los desafíos de tales problemas incluyen no solo las influencias de la insuficiencia del modelo y la incertidumbre de los parámetros, sino también la falta de datos de simulaciones y experimentos por computadora. Una situación común es que la configuración de entrada no sea la misma en experimentos y simulaciones.
Enfoque modular bayesiano
Un enfoque para la cuantificación de la incertidumbre inversa es el enfoque modular bayesiano. [4] [11] El enfoque modular bayesiano deriva su nombre de su procedimiento de cuatro módulos. Aparte de los datos disponibles actualmente, se debe asignar una distribución previa de parámetros desconocidos.
- Módulo 1: Modelado de procesos gaussianos para el modelo informático
Para abordar el problema de la falta de resultados de simulación, el modelo de computadora se reemplaza con un modelo de proceso gaussiano (GP)
dónde
es la dimensión de las variables de entrada, y es la dimensión de parámetros desconocidos. Tiempo está predefinido, , conocidos como hiperparámetros del modelo GP, deben estimarse mediante la estimación de máxima verosimilitud (MLE) . Este módulo puede considerarse como un método de kriging generalizado .
- Módulo 2: Modelado de procesos gaussianos para la función de discrepancia
De manera similar con el primer módulo, la función de discrepancia se reemplaza con un modelo GP
dónde
Junto con la distribución previa de parámetros desconocidos y datos tanto de modelos informáticos como de experimentos, se pueden derivar las estimaciones de máxima verosimilitud para . Al mismo tiempo, del Módulo 1 también se actualiza.
- Módulo 3: Distribución posterior de parámetros desconocidos
El teorema de Bayes se aplica para calcular la distribución posterior de los parámetros desconocidos:
dónde incluye todos los hiperparámetros fijos en módulos anteriores.
- Módulo 4: Predicción de la respuesta experimental y función de discrepancia
Enfoque totalmente bayesiano
El enfoque completamente bayesiano requiere que no solo los antecedentes de parámetros desconocidos pero también los anteriores para los otros hiperparámetros debe ser asignado. Sigue los siguientes pasos: [12]
- Derivar la distribución posterior ;
- Integrar salir y obtener . Este único paso logra la calibración;
- Predicción de la respuesta experimental y función de discrepancia.
Sin embargo, el enfoque tiene importantes inconvenientes:
- En la mayoría de los casos, es una función altamente intratable de . Por tanto, la integración se vuelve muy problemática. Además, si los antecedentes de los otros hiperparámetros no se eligen cuidadosamente, la complejidad en la integración numérica aumenta aún más.
- En la etapa de predicción, la predicción (que debe incluir al menos el valor esperado de las respuestas del sistema) también requiere integración numérica. La cadena de Markov Monte Carlo (MCMC) se utiliza a menudo para la integración; sin embargo, es computacionalmente costoso.
El enfoque completamente bayesiano requiere una gran cantidad de cálculos y es posible que aún no sea práctico para lidiar con las situaciones de modelado más complicadas. [12]
Problemas conocidos
Las teorías y metodologías para la propagación de la incertidumbre están mucho mejor establecidas, en comparación con la cuantificación de la incertidumbre inversa. Para este último, quedan varias dificultades sin resolver:
- Problema de dimensionalidad: el costo computacional aumenta dramáticamente con la dimensionalidad del problema, es decir, el número de variables de entrada y / o el número de parámetros desconocidos.
- Problema de identificabilidad: [13] Múltiples combinaciones de parámetros desconocidos y función de discrepancia pueden producir la misma predicción experimental. Por lo tanto, no se pueden distinguir / identificar diferentes valores de parámetros.
Eventos aleatorios a incertidumbre cuantificable
Al lanzar un dado de seis caras, la probabilidad de obtener de uno a seis es igual. Un intervalo de probabilidad de cobertura del 90% extiende todo el rango de salida. Mientras tira 5 dados y observa la suma de los resultados, la amplitud de un intervalo de 88,244% de confianza es el 46,15% del rango. El intervalo se vuelve más estrecho en comparación con el rango con un mayor número de lanzamientos de dados. Nuestros eventos de la vida real están influenciados por numerosos eventos probabilísticos y el efecto de todos los eventos probabilísticos se puede predecir mediante un intervalo estrecho de alta probabilidad de cobertura; la mayoría de las situaciones. [14]
Ver también
- Experimento informático
- Se necesita más investigación
- Cuantificación de márgenes e incertidumbres
Referencias
- ^ Sacos, Jerónimo; Welch, William J .; Mitchell, Toby J .; Wynn, Henry P. (1989). "Diseño y análisis de experimentos informáticos" . Ciencia estadística . 4 (4): 409–423. doi : 10.1214 / ss / 1177012413 . JSTOR 2245858 .
- ^ Ronald L. Iman, Jon C. Helton, "Una investigación de técnicas de análisis de incertidumbre y sensibilidad para modelos informáticos", Análisis de riesgos , volumen 8, número 1, páginas 71–90, marzo de 1988, doi : 10.1111 / j.1539- 6924.1988.tb01155.x
- ^ WE Walker, P. Harremoës, J. Rotmans, JP van der Sluijs, MBA van Asselt, P. Janssen y MP Krayer von Krauss, "Definición de la incertidumbre: una base conceptual para la gestión de la incertidumbre en el apoyo de decisiones basadas en modelos", Evaluación integrada , Volumen 4, Número 1, 2003, doi : 10.1076 / iaij.4.1.5.16466
- ^ a b Kennedy, Marc C .; O'Hagan, Anthony (2001). "Calibración bayesiana de modelos informáticos" . Revista de la Royal Statistical Society, Serie B (Metodología estadística) . 63 (3): 425–464. doi : 10.1111 / 1467-9868.00294 .
- ^ Der Kiureghian, Armen; Ditlevsen, Ove (2009). "¿Aleatorio o epistémico? ¿Importa?". Seguridad estructural . 31 (2): 105-112. doi : 10.1016 / j.strusafe.2008.06.020 .
- ^ Matthies, Hermann G. (2007). "Cuantificación de la incertidumbre: representación computacional moderna de probabilidad y aplicaciones". Amenazas extremas provocadas por el hombre y naturales en la dinámica de las estructuras . Serie Seguridad de la OTAN a través de la ciencia. págs. 105-135. doi : 10.1007 / 978-1-4020-5656-7_4 . ISBN 978-1-4020-5654-3.
- ^ Abhaya Indrayan, Bioestadística médica , segunda edición, Chapman & Hall / CRC Press, 2008, páginas 8, 673
- ^ SH Lee y W. Chen , "Un estudio comparativo de métodos de propagación de la incertidumbre para problemas de tipo caja negra", Volumen 37 de optimización estructural y multidisciplinaria , número 3 (2009), 239-253, doi : 10.1007 / s00158-008- 0234-7
- ^ Jaulin, L .; Kieffer, M .; Didrit, O .; Walter, E. (2001). Análisis de intervalo aplicado . Saltador. ISBN 1-85233-219-0.
- ^ Arnaut, LR Incertidumbre de medición en cámaras de reverberación - I. Estadísticas de muestra. Informe técnico TQE 2, 2do. ed., sec. 3.1, Laboratorio Nacional de Física, 2008.
- ^ Marc C. Kennedy, Anthony O'Hagan, Detalles suplementarios sobre la calibración bayesiana de modelos informáticos , Sheffield, Universidad de Sheffield: 1–13, 2000
- ^ a b F. Liu, MJ Bayarri y JOBerger, "Modularización en análisis bayesiano, con énfasis en el análisis de modelos informáticos", Análisis bayesiano (2009) 4, Número 1, págs. 119-150, doi : 10.1214 / 09-BA404
- ^ Paul D. Arendt, Daniel W. Apley, Wei Chen , David Lamb y David Gorsich, "Mejora de la identificabilidad en la calibración del modelo mediante respuestas múltiples", Revista de diseño mecánico , 134 (10), 100909 (2012); doi : 10.1115 / 1.4007573
- ^ HM Dipu Kabir, Abbas Khosravi, Saeid Nahavandi, Abdollah Kavousi-Fard, "Entrenamiento adversario parcial para la cuantificación de la incertidumbre basada en redes neuronales", 'Transacciones IEEE sobre temas emergentes en inteligencia computacional', doi : 10.1109 / TETCI.2019.2936546