El diseño experimental bayesiano proporciona un marco teórico de probabilidad general del que se pueden derivar otras teorías sobre el diseño experimental . Se basa en la inferencia bayesiana para interpretar las observaciones / datos adquiridos durante el experimento. Esto permite tener en cuenta tanto cualquier conocimiento previo sobre los parámetros a determinar como las incertidumbres en las observaciones.
La teoría del diseño experimental bayesiano se basa en cierta medida en la teoría para tomar decisiones óptimas en condiciones de incertidumbre . El objetivo al diseñar un experimento es maximizar la utilidad esperada del resultado del experimento. La utilidad se define más comúnmente en términos de una medida de la precisión de la información proporcionada por el experimento (por ejemplo, la información de Shannon o el negativo de la varianza ), pero también puede involucrar factores como el costo financiero de realizar el experimento. Cuál será el diseño de experimento óptimo depende del criterio de utilidad particular elegido.
En numerosas publicaciones sobre diseño experimental bayesiano, se asume (a menudo implícitamente) que todos los PDF posteriores serán aproximadamente normales. Esto permite calcular la utilidad esperada utilizando la teoría lineal, promediando el espacio de los parámetros del modelo, un enfoque revisado en Chaloner y Verdinelli (1995) . Sin embargo, se debe tener precaución al aplicar este método, ya que la normalidad aproximada de todos los posibles posteriores es difícil de verificar, incluso en casos de errores de observación normales y PDF anterior uniforme.
Distribución posterior
Recientemente, el aumento de los recursos computacionales permite la inferencia de la distribución posterior de los parámetros del modelo, que se pueden utilizar directamente para el diseño de experimentos. Vanlier y col. (2012) propusieron un enfoque que utiliza la distribución predictiva posterior para evaluar el efecto de nuevas mediciones sobre la incertidumbre de la predicción, mientras que Liepe et al. (2013) sugieren maximizar la información mutua entre parámetros, predicciones y posibles nuevos experimentos.
Formulación matemática
Notación
parámetros por determinar
observación o datos
diseño
PDF para realizar observaciones , valores de parámetros dados y diseño
PDF anterior
PDF marginal en el espacio de observación
PDF posterior
utilidad del diseño
utilidad del resultado del experimento después de la observación con diseño
Dado un vector de parámetros a determinar, una PDF previa sobre esos parámetros y una PDF para realizar la observación , dados los valores de los parámetros y un diseño de experimento , la PDF posterior se puede calcular utilizando el teorema de Bayes.
donde es la densidad de probabilidad marginal en el espacio de observación
Entonces se puede definir la utilidad esperada de un experimento con diseño
donde es una función de valor real del PDF posterior después de realizar la observación utilizando un diseño de experimento .
Obtener información de Shannon como utilidad
La utilidad puede definirse como la ganancia anterior-posterior en la información de Shannon.
Otra posibilidad es definir la utilidad como
la divergencia de Kullback-Leibler de la distribución anterior de la posterior.Lindley (1956) señaló que la utilidad esperada será entonces independiente de las coordenadas y se puede escribir de dos formas
de los cuales, estos últimos pueden evaluarse sin la necesidad de evaluar PDF posteriores individuales para todas las posibles observaciones . Vale la pena señalar que el primer término de la segunda línea de ecuación no dependerá del diseño , siempre que la incertidumbre de la observación no lo haga. Por otro lado, la integral de en la primera forma es constante para todos , por lo que si el objetivo es elegir el diseño con la mayor utilidad, no es necesario calcular el término. Varios autores han considerado técnicas numéricas para evaluar y optimizar este criterio, por ejemplo, van den Berg, Curtis & Trampert (2003) y Ryan (2003) . Tenga en cuenta que
la ganancia de información esperada es exactamente la información mutua entre el parámetro θ y la observación y . Un ejemplo de diseño bayesiano para la discriminación de modelos dinámicos lineales se da en Bania (2019) . Dado que era difícil de calcular, su límite inferior se ha utilizado como función de utilidad. El límite inferior se maximiza entonces bajo la restricción de energía de la señal. El diseño bayesiano propuesto también se ha comparado con el diseño D-óptimo promedio clásico. Se demostró que el diseño bayesiano es superior al diseño D-óptimo.
El criterio de Kelly también describe dicha función de utilidad para un jugador que busca maximizar las ganancias, que se utiliza en el juego y la teoría de la información ; La situación de Kelly es idéntica a la anterior, con la información complementaria o "cable privado" tomando el lugar del experimento.
Vanlier; Tiemann; Hilbers; van Riel (2012), "Un enfoque bayesiano para el diseño de experimentos específicos", Bioinformatics , 28 (8): 1136-1142, doi : 10.1093 / bioinformatics / bts092 , PMC 3324513 , PMID 22368245
Liepe; Filippi; Komorowski; Stumpf (2013), "Maximización del contenido de información de los experimentos en biología de sistemas", PLOS Computational Biology , 9 (1): e1002888, Bibcode : 2013PLSCB ... 9E2888L , doi : 10.1371 / journal.pcbi.1002888 , PMC 3561087 , PMID 23382663
van den Berg; Curtis; Trampert (2003), "Optimal nonlinear bayesian experimental design: an application to amplitude versus offset experiment", Geophysical Journal International , 155 (2): 411–421, Bibcode : 2003GeoJI.155..411V , doi : 10.1046 / j.1365 -246x.2003.02048.x
Chaloner, Kathryn; Verdinelli, Isabella (1995), "Diseño experimental bayesiano: una revisión" (PDF) , Statistical Science , 10 (3): 273–304, doi : 10.1214 / ss / 1177009939
DasGupta, A. (1996), "Revisión de diseños óptimos de Bayes" (PDF) , en Ghosh, S .; Rao, CR (eds.), Diseño y análisis de experimentos , Manual de estadística, 13 , Holanda Septentrional, págs. 1099–1148, ISBN 978-0-444-82061-7
Lindley, DV (1956), "Sobre una medida de información proporcionada por un experimento", Annals of Mathematical Statistics , 27 (4): 986–1005, doi : 10.1214 / aoms / 1177728069
Ryan, KJ (2003), "Estimación de las ganancias de información esperadas para diseños experimentales con aplicación al modelo aleatorio de límite de fatiga", Journal of Computational and Graphical Statistics , 12 (3): 585–603, doi : 10.1198 / 1061860032012 , S2CID 119889630
Bania, P. (2019), "Diseño de entrada bayesiana para la discriminación de modelos dinámicos lineales", Entropía , 21 (4): 351, Bibcode : 2019Entrp..21..351B , doi : 10.3390 / e21040351 , PMC 7514835 , PMID 33267065
vtmiEstadísticas
Esquema
Índice
Estadísticas descriptivas
Datos continuos
Centrar
Significar
aritmética
geométrico
armónico
cúbico
generalizado / poder
Mediana
Modo
Dispersión
Diferencia
Desviación Estándar
Desviación absoluta media
Coeficiente de variación
Percentil
Abarcar
Rango intercuartil
Forma
Teorema del límite central
Momentos
Oblicuidad
Curtosis
Momentos L
Contar datos
Índice de dispersión
Tablas de resumen
Datos agrupados
Distribución de frecuencias
Mesa de contingencia
Dependencia
Correlación producto-momento de Pearson
Correlación de rango
Ρ de Spearman
Τ de Kendall
Correlación parcial
Gráfico de dispersión
Gráficos
Gráfico de barras
Biplot
Diagrama de caja
Tabla de control
Correlograma
Gráfico de abanico
Parcela forestal
Histograma
Gráfico circular
Gráfico Q – Q
Tabla de ejecutar
Gráfico de dispersión
Pantalla de tallo y hoja
Gráfico de radar
Trama de violín
Recopilación de datos
Diseño del estudio
Población
Estadística
Tamaño del efecto
Poder estatico
Diseño optimo
Determinación del tamaño de la muestra
Replicación
Datos perdidos
Metodología de la encuesta
Muestreo
estratificado
grupo
Error estándar
Encuesta de opinión
Cuestionario
Experimentos controlados
Control científico
Experimento aleatorizado
Ensayo controlado aleatorio
Asignación aleatoria
Bloqueo
Interacción
Experimento factorial
Diseños adaptables
Ensayo clínico adaptativo
Diseños de arriba hacia abajo
Aproximación estocástica
Estudios observacionales
Estudio transversal
Estudio de cohorte
Experimento natural
Cuasi-experimento
Inferencia estadística
Teoría estadística
Población
Estadística
Distribución de probabilidad
Distribución muestral
Estadística de pedidos
Distribución empírica
Estimación de densidad
Modelo estadístico
Especificación del modelo
L p espacio
Parámetro
localización
escala
forma
Familia paramétrica
Probabilidad (monótona)
Familia de escala de ubicación
Familia exponencial
Lo completo
Suficiencia
Estadístico funcional
Oreja
U
V
Decisión optima
función de pérdida
Eficiencia
Distancia estadística
divergencia
Asintóticos
Robustez
Inferencia frecuentista
Estimación puntual
Estimación de ecuaciones
Máxima verosimilitud
Método de momentos
Estimador M
Distancia minima
Estimadores insesgados
Varianza mínima media insesgada
Rao-Blackwellization
Teorema de Lehmann-Scheffé
Mediana imparcial
Enchufar
Estimación de intervalo
Intervalo de confianza
Pivote
Intervalo de probabilidad
Intervalo de predicción
Intervalo de tolerancia
Remuestreo
Oreja
Navaja
Prueba de hipótesis
1 y 2 colas
Poder
Prueba uniformemente más potente
Prueba de permutación
Prueba de aleatorización
Varias comparaciones
Pruebas paramétricas
Índice de probabilidad
Puntuación / multiplicador de Lagrange
Wald
Ensayos específicos
Prueba Z (normal)
Prueba t de estudiante
F- prueba
Bondad de ajuste
Chi-cuadrado
Prueba G
Kolmogorov – Smirnov
Anderson – Darling
Lilliefors
Jarque – Bera
Normalidad (Shapiro – Wilk)
Prueba de razón de verosimilitud
Selección de modelo
Validación cruzada
AIC
BIC
Estadísticas de clasificación
Firmar
Mediana de la muestra
Rango firmado (Wilcoxon)
Estimador de Hodges-Lehmann
Suma de rango (Mann-Whitney)
no paramétrico ANOVA
1 vía (Kruskal – Wallis)
2 vías (Friedman)
Alternativa ordenada (Jonckheere – Terpstra)
Inferencia bayesiana
Probabilidad bayesiana
previo
posterior
Intervalo creíble
Factor de Bayes
Estimador bayesiano
Estimador posterior máximo
CorrelaciónAnálisis de regresión
Correlación
Momento del producto de Pearson
Correlación parcial
Variable de confusión
Coeficiente de determinación
Análisis de regresión
Errores y residuales
Validación de regresión
Modelos de efectos mixtos
Modelos de ecuaciones simultáneas
Splines de regresión adaptativa multivariante (MARS)