En estadística , el uso de factores de Bayes es una alternativa bayesiana a las pruebas de hipótesis clásicas . [1] [2] La comparación de modelos bayesianos es un método de selección de modelos basado en factores de Bayes. Los modelos considerados son modelos estadísticos . [3] El objetivo del factor de Bayes es cuantificar el soporte de un modelo sobre otro, independientemente de si estos modelos son correctos. [4] La definición técnica de "soporte" en el contexto de la inferencia bayesiana se describe a continuación.
Definición
El factor de Bayes es una razón de verosimilitud de la probabilidad marginal de dos hipótesis en competencia, generalmente una nula y una alternativa. [5]
La probabilidad posterior de un modelo M dado los datos D viene dado por el teorema de Bayes :
El término clave dependiente de los datos representa la probabilidad de que se produzcan algunos datos bajo el supuesto del modelo M ; evaluarlo correctamente es la clave para la comparación del modelo bayesiano.
Dado un problema de selección de modelo en el que tenemos que elegir entre dos modelos sobre la base de los datos observados D , la plausibilidad de los dos modelos diferentes M 1 y M 2 , parametrizados por vectores de parámetros del modelo y , se evalúa mediante el factor K de Bayes dado por
Cuando los dos modelos son igualmente probables a priori , de modo que, el factor de Bayes es igual a la razón de las probabilidades posteriores de M 1 y M 2 . Si en lugar de la integral del factor de Bayes se utiliza la probabilidad correspondiente a la estimación de máxima verosimilitud del parámetro para cada modelo estadístico, entonces la prueba se convierte en una prueba clásica de razón de verosimilitud . A diferencia de una prueba de razón de verosimilitud, esta comparación del modelo bayesiano no depende de un solo conjunto de parámetros, ya que integra todos los parámetros de cada modelo (con respecto a los respectivos a priori). Sin embargo, una ventaja del uso de factores de Bayes es que automáticamente, y de forma bastante natural, incluye una penalización por incluir demasiada estructura de modelo. [6] Por lo tanto, protege contra el sobreajuste . Para modelos donde una versión explícita de la probabilidad no está disponible o es demasiado costosa para evaluar numéricamente, se puede utilizar el cálculo bayesiano aproximado para la selección del modelo en un marco bayesiano, [7] con la salvedad de que las estimaciones bayesianas aproximadas de los factores de Bayes a menudo están sesgadas. . [8]
Otros enfoques son:
- tratar la comparación de modelos como un problema de decisión , calculando el valor o costo esperado de cada elección de modelo;
- para utilizar la longitud mínima del mensaje (MML).
Interpretación
Un valor de K > 1 significa que M 1 está más respaldado por los datos en consideración que M 2 . Tenga en cuenta que la prueba de hipótesis clásica le da a una hipótesis (o modelo) el estado preferido (la 'hipótesis nula') y solo considera la evidencia en su contra . Harold Jeffreys dio una escala para la interpretación de K : [9]
K | dHart | bits | Fuerza de la evidencia |
---|---|---|---|
<10 0 | <0 | <0 | Negativo (admite M 2 ) |
10 0 hasta 10 1/2 | 0 a 5 | 0 hasta 1,6 | Apenas vale la pena mencionar |
10 1/2 hasta 10 1 | 5 a 10 | 1,6 hasta 3,3 | Sustancial |
10 1 hasta 10 3/2 | 10 a 15 | 3.3 hasta 5.0 | Fuerte |
10 3/2 hasta 10 2 | 15 hasta 20 | 5,0 hasta 6,6 | Muy fuerte |
> 10 2 | > 20 | > 6,6 | Decisivo |
La segunda columna da los correspondientes pesos de evidencia en decihartleys (también conocidos como decibans ); los bits se agregan en la tercera columna para mayor claridad. Según IJ Good, un cambio en el peso de la evidencia de 1 decibán o 1/3 de bit (es decir, un cambio en una razón de probabilidades de pares a aproximadamente 5: 4) es tan fino como los humanos pueden percibir razonablemente su grado de creencia. en una hipótesis en el uso diario. [10]
Kass y Raftery (1995) proporcionan una tabla alternativa, ampliamente citada: [6]
log 10 K | K | Fuerza de la evidencia |
---|---|---|
0 a 1/2 | 1 hasta 3,2 | No vale más que una simple mención |
1/2 a 1 | 3,2 hasta 10 | Sustancial |
1 a 2 | 10 hasta 100 | Fuerte |
> 2 | > 100 | Decisivo |
Ejemplo
Supongamos que tenemos una variable aleatoria que produce un éxito o un fracaso. Queremos comparar un modelo M 1 donde la probabilidad de éxito es q = ½, y otro modelo M 2 donde q se desconoce y tomamos una distribución previa para q que es uniforme en [0,1]. Tomamos una muestra de 200 y encontramos 115 éxitos y 85 fracasos. La probabilidad se puede calcular de acuerdo con la distribución binomial :
Así tenemos para M 1
mientras que para M 2 tenemos
La relación es entonces de 1,2, que "apenas vale la pena mencionar", aunque apunta muy ligeramente hacia M 1 .
Una prueba de hipótesis frecuentista de M 1 (aquí considerada como una hipótesis nula ) habría producido un resultado muy diferente. Tal prueba dice que M 1 debe rechazarse al nivel de significancia del 5%, ya que la probabilidad de obtener 115 o más éxitos de una muestra de 200 si q = ½ es 0.02, y como una prueba de dos colas para obtener una cifra como extremo como o más extremo que 115 es 0.04. Tenga en cuenta que 115 está a más de dos desviaciones estándar de 100. Por lo tanto, mientras que una prueba de hipótesis frecuentista produciría resultados significativos al nivel de significancia del 5%, el factor de Bayes difícilmente considera que este sea un resultado extremo. Sin embargo, tenga en cuenta que un antecedente no uniforme (por ejemplo, uno que refleja el hecho de que espera que el número de éxitos y fracasos sea del mismo orden de magnitud) podría resultar en un factor de Bayes que esté más de acuerdo con el frecuentista prueba de hipotesis.
Una prueba clásica de razón de verosimilitud habría encontrado la estimación de máxima verosimilitud para q , a saber 115 ⁄ 200 = 0.575, de donde
(en lugar de promediar todos los q posibles ). Eso da una razón de verosimilitud de 0.1 y apunta hacia M 2 .
M 2 es un modelo más complejo que M 1 porque tiene un parámetro libre que le permite modelar los datos más de cerca. La capacidad de los factores de Bayes para tener esto en cuenta es una razón por la inferencia bayesiana se ha propuesto como una justificación teórica para y generalización de la navaja de Occam , la reducción de los errores de tipo I . [11]
Por otro lado, el método moderno de probabilidad relativa tiene en cuenta el número de parámetros libres en los modelos, a diferencia de la razón de probabilidad clásica. El método de verosimilitud relativa podría aplicarse de la siguiente manera. El modelo M 1 tiene 0 parámetros, por lo que su valor AIC es 2 · 0 - 2 · ln (0.005956) = 10.2467. El modelo M 2 tiene 1 parámetro, por lo que su valor AIC es 2 · 1 - 2 · ln (0.056991) = 7.7297. Por lo tanto, M 1 es aproximadamente exp ((7.7297 - 10.2467) / 2) = 0.284 veces más probable que M 2 para minimizar la pérdida de información. Por tanto, se prefiere ligeramente M 2 , pero no se puede excluir M 1 .
Ver también
- Criterio de información de Akaike
- Cálculo bayesiano aproximado
- Criterio de información bayesiano
- Criterio de información de desviación
- La paradoja de Lindley
- Longitud mínima del mensaje
- Selección de modelo
- Ratios estadísticos
- Razón de probabilidades
- Riesgo relativo
Referencias
- ^ Goodman, S. (1999). "Hacia estadísticas médicas basadas en evidencia. 1: La falacia del valor P". Ann Intern Med . 130 (12): 995–1004. doi : 10.7326 / 0003-4819-130-12-199906150-00008 . PMID 10383371 . S2CID 7534212 .
- ^ Goodman, S. (1999). "Hacia las estadísticas médicas basadas en la evidencia. 2: El factor de Bayes". Ann Intern Med . 130 (12): 1005-13. doi : 10.7326 / 0003-4819-130-12-199906150-00019 . PMID 10383350 .
- ^ Morey, Richard D .; Romeijn, Jan-Willem; Rouder, Jeffrey N. (2016). "La filosofía de los factores de Bayes y la cuantificación de la evidencia estadística" . Revista de Psicología Matemática . 72 : 6–18. doi : 10.1016 / j.jmp.2015.11.001 .
- ^ Ly, Alexander; Verhagen, Josine; Wagenmakers, Eric-Jan (2016). "Pruebas de hipótesis de factor de Bayes por defecto de Harold Jeffreys: explicación, extensión y aplicación en psicología". Revista de Psicología Matemática . 72 : 19–32. doi : 10.1016 / j.jmp.2015.06.004 .
- ^ Bien, Phillip; Hardin, James (23 de julio de 2012). Errores comunes en estadísticas (y cómo evitarlos) (4ª ed.). Hoboken, Nueva Jersey: John Wiley & Sons, Inc. págs. 129-131. ISBN 978-1118294390.
- ^ a b Robert E. Kass y Adrian E. Raftery (1995). "Factores de Bayes" (PDF) . Revista de la Asociación Estadounidense de Estadística . 90 (430): 791. doi : 10.2307 / 2291091 . JSTOR 2291091 .
- ^ Toni, T .; Stumpf, MPH (2009). "Selección de modelos basados en simulación para sistemas dinámicos en biología de sistemas y poblaciones" . Bioinformática . 26 (1): 104–10. arXiv : 0911.1705 . doi : 10.1093 / bioinformatics / btp619 . PMC 2796821 . PMID 19880371 .
- ^ Robert, CP; J. Cornuet; J. Marin y NS Pillai (2011). "Falta de confianza en la elección del modelo de cálculo bayesiano aproximado" . Actas de la Academia Nacional de Ciencias . 108 (37): 15112-15117. Código Bibliográfico : 2011PNAS..10815112R . doi : 10.1073 / pnas.1102900108 . PMC 3174657 . PMID 21876135 .
- ^ Jeffreys, Harold (1998) [1961]. La teoría de la probabilidad (3ª ed.). Oxford, Inglaterra. pag. 432. ISBN 9780191589676.
- ^ Bueno, IJ (1979). "Estudios de Historia de la Probabilidad y Estadística. Trabajo estadístico de XXXVII AM Turing en la Segunda Guerra Mundial". Biometrika . 66 (2): 393–396. doi : 10.1093 / biomet / 66.2.393 . Señor 0548210 .
- ^ Afilar la navaja de Ockham en un trapo bayesiano
Otras lecturas
- Bernardo, J .; Smith, AFM (1994). Teoría Bayesiana . John Wiley. ISBN 0-471-92416-4.
- Denison, DGT; Holmes, CC; Mallick, BK; Smith, AFM (2002). Métodos bayesianos para clasificación y regresión no lineal . John Wiley. ISBN 0-471-49036-9.
- Dienes, Z. (2019). ¿Cómo sé lo que predice mi teoría? Avances en métodos y prácticas en ciencias psicológicas https://doi.org/10.1177/2515245919876960
- Duda, Richard O .; Hart, Peter E .; Cigüeña, David G. (2000). "Sección 9.6.5". Clasificación de patrones (2ª ed.). Wiley. págs. 487–489. ISBN 0-471-05669-3.
- Gelman, A .; Carlin, J .; Stern, H .; Rubin, D. (1995). Análisis de datos bayesianos . Londres: Chapman & Hall . ISBN 0-412-03991-5.
- Jaynes, ET (1994), Teoría de la probabilidad: la lógica de la ciencia , capítulo 24.
- Lee, PM (2012). Estadística bayesiana: una introducción . Wiley. ISBN 9781118332573.
- Winkler, Robert (2003). Introducción a la inferencia y decisión bayesianas (2ª ed.). Probabilístico. ISBN 0-9647938-4-9.
enlaces externos
- BayesFactor: un paquete R para calcular factores de Bayes en diseños de investigación comunes
- Calculadora de factores de Bayes: calculadora en línea para factores de Bayes informados
- Calculadoras de factores de Bayes : versión basada en web de gran parte del paquete BayesFactor