Diseño experimental bayesiano


De Wikipedia, la enciclopedia libre
Saltar a navegación Saltar a búsqueda

El diseño experimental bayesiano proporciona un marco teórico de probabilidad general del que se pueden derivar otras teorías sobre el diseño experimental . Se basa en la inferencia bayesiana para interpretar las observaciones / datos adquiridos durante el experimento. Esto permite tener en cuenta tanto cualquier conocimiento previo sobre los parámetros a determinar como las incertidumbres en las observaciones.

La teoría del diseño experimental bayesiano se basa en cierta medida en la teoría para tomar decisiones óptimas en condiciones de incertidumbre . El objetivo al diseñar un experimento es maximizar la utilidad esperada del resultado del experimento. La utilidad se define más comúnmente en términos de una medida de la precisión de la información proporcionada por el experimento (por ejemplo, la información de Shannon o el negativo de la varianza ), pero también puede involucrar factores como el costo financiero de realizar el experimento. Cuál será el diseño de experimento óptimo depende del criterio de utilidad particular elegido.

Relaciones con la teoría del diseño óptimo más especializada

Teoría lineal

Si el modelo es lineal, la función de densidad de probabilidad previa (PDF) es homogénea y los errores de observación se distribuyen normalmente , la teoría se simplifica a la teoría clásica del diseño experimental óptimo .

Normalidad aproximada

En numerosas publicaciones sobre diseño experimental bayesiano, se asume (a menudo implícitamente) que todos los PDF posteriores serán aproximadamente normales. Esto permite calcular la utilidad esperada utilizando la teoría lineal, promediando el espacio de los parámetros del modelo, un enfoque revisado en Chaloner y Verdinelli (1995) . Sin embargo, se debe tener precaución al aplicar este método, ya que la normalidad aproximada de todos los posibles posteriores es difícil de verificar, incluso en casos de errores de observación normales y PDF anterior uniforme.

Distribución posterior

Recientemente, el aumento de los recursos computacionales permite la inferencia de la distribución posterior de los parámetros del modelo, que se pueden utilizar directamente para el diseño de experimentos. Vanlier y col. (2012) propusieron un enfoque que utiliza la distribución predictiva posterior para evaluar el efecto de nuevas mediciones sobre la incertidumbre de la predicción, mientras que Liepe et al. (2013) sugieren maximizar la información mutua entre parámetros, predicciones y posibles nuevos experimentos.

Formulación matemática

Dado un vector de parámetros a determinar, una PDF previa sobre esos parámetros y una PDF para realizar la observación , dados los valores de los parámetros y un diseño de experimento , la PDF posterior se puede calcular utilizando el teorema de Bayes.

donde es la densidad de probabilidad marginal en el espacio de observación

Entonces se puede definir la utilidad esperada de un experimento con diseño

donde es una función de valor real del PDF posterior después de realizar la observación utilizando un diseño de experimento .

Obtener información de Shannon como utilidad

La utilidad puede definirse como la ganancia anterior-posterior en la información de Shannon.

Otra posibilidad es definir la utilidad como

la divergencia de Kullback-Leibler de la distribución anterior de la posterior.Lindley (1956) señaló que la utilidad esperada será entonces independiente de las coordenadas y se puede escribir de dos formas

de los cuales, estos últimos pueden evaluarse sin la necesidad de evaluar PDF posteriores individuales para todas las posibles observaciones . Vale la pena señalar que el primer término de la segunda línea de ecuación no dependerá del diseño , siempre que la incertidumbre de la observación no lo haga. Por otro lado, la integral de en la primera forma es constante para todos , por lo que si el objetivo es elegir el diseño con la mayor utilidad, no es necesario calcular el término. Varios autores han considerado técnicas numéricas para evaluar y optimizar este criterio, por ejemplo, van den Berg, Curtis & Trampert (2003) y Ryan (2003) . Tenga en cuenta que

la ganancia de información esperada es exactamente la información mutua entre el parámetro θ y la observación y . Un ejemplo de diseño bayesiano para la discriminación de modelos dinámicos lineales se da en Bania (2019) . Dado que era difícil de calcular, su límite inferior se ha utilizado como función de utilidad. El límite inferior se maximiza entonces bajo la restricción de energía de la señal. El diseño bayesiano propuesto también se ha comparado con el diseño D-óptimo promedio clásico. Se demostró que el diseño bayesiano es superior al diseño D-óptimo.

El criterio de Kelly también describe dicha función de utilidad para un jugador que busca maximizar las ganancias, que se utiliza en el juego y la teoría de la información ; La situación de Kelly es idéntica a la anterior, con la información complementaria o "cable privado" tomando el lugar del experimento.


Ver también

Referencias

  • Vanlier; Tiemann; Hilbers; van Riel (2012), "Un enfoque bayesiano para el diseño de experimentos específicos", Bioinformatics , 28 (8): 1136-1142, doi : 10.1093 / bioinformatics / bts092 , PMC  3324513 , PMID  22368245
  • Liepe; Filippi; Komorowski; Stumpf (2013), "Maximización del contenido de información de los experimentos en biología de sistemas", PLOS Computational Biology , 9 (1): e1002888, Bibcode : 2013PLSCB ... 9E2888L , doi : 10.1371 / journal.pcbi.1002888 , PMC  3561087 , PMID  23382663
  • van den Berg; Curtis; Trampert (2003), "Optimal nonlinear bayesian experimental design: an application to amplitude versus offset experiment", Geophysical Journal International , 155 (2): 411–421, Bibcode : 2003GeoJI.155..411V , doi : 10.1046 / j.1365 -246x.2003.02048.x
  • Chaloner, Kathryn; Verdinelli, Isabella (1995), "Diseño experimental bayesiano: una revisión" (PDF) , Statistical Science , 10 (3): 273–304, doi : 10.1214 / ss / 1177009939
  • DasGupta, A. (1996), "Revisión de diseños óptimos de Bayes" (PDF) , en Ghosh, S .; Rao, CR (eds.), Diseño y análisis de experimentos , Manual de estadística, 13 , Holanda Septentrional, págs. 1099–1148, ISBN 978-0-444-82061-7
  • Lindley, DV (1956), "Sobre una medida de información proporcionada por un experimento", Annals of Mathematical Statistics , 27 (4): 986–1005, doi : 10.1214 / aoms / 1177728069
  • Ryan, KJ (2003), "Estimación de las ganancias de información esperadas para diseños experimentales con aplicación al modelo aleatorio de límite de fatiga", Journal of Computational and Graphical Statistics , 12 (3): 585–603, doi : 10.1198 / 1061860032012 , S2CID  119889630
  • Bania, P. (2019), "Diseño de entrada bayesiana para la discriminación de modelos dinámicos lineales", Entropía , 21 (4): 351, Bibcode : 2019Entrp..21..351B , doi : 10.3390 / e21040351 , PMC  7514835 , PMID  33267065
Obtenido de " https://en.wikipedia.org/w/index.php?title=Bayesian_experimental_design&oldid=1029133244 "