La estadística bayesiana es una teoría en el campo de la estadística basada en la interpretación bayesiana de la probabilidad donde la probabilidad expresa un grado de creencia en un evento . El grado de creencia puede basarse en el conocimiento previo sobre el evento, como los resultados de experimentos previos, o en creencias personales sobre el evento. Esto difiere de una serie de otras interpretaciones de la probabilidad , como la interpretación frecuentista que ve la probabilidad como el límite de la frecuencia relativa de un evento después de muchas pruebas. [1]
Los métodos estadísticos bayesianos utilizan el teorema de Bayes para calcular y actualizar probabilidades después de obtener nuevos datos. El teorema de Bayes describe la probabilidad condicional de un evento basado en datos, así como en información previa o creencias sobre el evento o condiciones relacionadas con el evento [2] [3] Por ejemplo, en la inferencia bayesiana , el teorema de Bayes se puede usar para estimar los parámetros de una distribución de probabilidad o modelo estadístico . Dado que la estadística bayesiana trata la probabilidad como un grado de creencia, el teorema de Bayes puede asignar directamente una distribución de probabilidad que cuantifique la creencia al parámetro o conjunto de parámetros. [1] [2]
La estadística bayesiana lleva el nombre de Thomas Bayes , quien formuló un caso específico del teorema de Bayes en un artículo publicado en 1763. En varios artículos que abarcan desde finales del siglo XVIII hasta principios del XIX, Pierre-Simon Laplace desarrolló la interpretación bayesiana de la probabilidad. [4] Laplace utilizó métodos que ahora se considerarían bayesianos para resolver una serie de problemas estadísticos. Muchos métodos bayesianos fueron desarrollados por autores posteriores, pero el término no se usó comúnmente para describir tales métodos hasta la década de 1950. Durante gran parte del siglo XX, muchos estadísticos consideraron desfavorablemente los métodos bayesianos debido a consideraciones filosóficas y prácticas. Muchos métodos bayesianos requirieron mucho cálculo para completarse, y la mayoría de los métodos que se utilizaron ampliamente durante el siglo se basaron en la interpretación frecuentista. Sin embargo, con la llegada de computadoras poderosas y nuevos algoritmos como la cadena de Markov Monte Carlo , los métodos bayesianos han visto un uso creciente dentro de las estadísticas en el siglo XXI. [1] [5]
Teorema de Bayes
El teorema de Bayes se utiliza en los métodos bayesianos para actualizar las probabilidades, que son grados de creencia, después de obtener nuevos datos. Dados dos eventos y , la probabilidad condicional de dado que es cierto se expresa de la siguiente manera: [6]
dónde . Aunque el teorema de Bayes es un resultado fundamental de la teoría de la probabilidad , tiene una interpretación específica en la estadística bayesiana. En la ecuación anterior,generalmente representa una proposición (como la afirmación de que una moneda cae en la cara el cincuenta por ciento de las veces) y representa la evidencia o los nuevos datos que se deben tener en cuenta (como el resultado de una serie de lanzamientos de monedas). es la probabilidad previa de que expresa las propias creencias sobre antes de que se tengan en cuenta las pruebas. La probabilidad previa también puede cuantificar el conocimiento o la información previos sobre. es la función de verosimilitud , que se puede interpretar como la probabilidad de la evidencia dado que es verdad. La probabilidad cuantifica el grado en que la evidencia apoya la propuesta . es la probabilidad posterior , la probabilidad de la proposición después de tomar la evidencia en cuenta. Esencialmente, el teorema de Bayes actualiza las creencias previas de uno. después de considerar la nueva evidencia . [1]
La probabilidad de la evidencia se puede calcular usando la ley de probabilidad total . Sies una partición del espacio muestral , que es el conjunto de todos los resultados de un experimento, entonces, [1] [6]
Cuando hay un número infinito de resultados, es necesario integrar todos los resultados para calcularusando la ley de la probabilidad total. A menudo,es difícil de calcular ya que el cálculo involucraría sumas o integrales que llevaría mucho tiempo evaluar, por lo que a menudo solo se considera el producto del previo y la probabilidad, ya que la evidencia no cambia en el mismo análisis. La parte posterior es proporcional a este producto: [1]
El máximo a posteriori , que es el modo del posterior y a menudo se calcula en estadísticas bayesianas utilizando métodos de optimización matemática , sigue siendo el mismo. El posterior se puede aproximar incluso sin calcular el valor exacto decon métodos como la cadena de Markov Monte Carlo o métodos bayesianos variacionales . [1]
Esquema de los métodos bayesianos
El conjunto general de técnicas estadísticas se puede dividir en varias actividades, muchas de las cuales tienen versiones bayesianas especiales.
Inferencia bayesiana
La inferencia bayesiana se refiere a la inferencia estadística en la que la incertidumbre en las inferencias se cuantifica mediante la probabilidad. En la inferencia frecuentista clásica , los parámetros e hipótesis del modelo se consideran fijos. Las probabilidades no se asignan a parámetros o hipótesis en la inferencia frecuentista. Por ejemplo, no tendría sentido en la inferencia frecuentista asignar directamente una probabilidad a un evento que solo puede ocurrir una vez, como el resultado del próximo lanzamiento de una moneda justa. Sin embargo, tendría sentido afirmar que la proporción de caras se acerca a la mitad a medida que aumenta el número de lanzamientos de monedas. [7]
Los modelos estadísticos especifican un conjunto de supuestos y procesos estadísticos que representan cómo se generan los datos de muestra. Los modelos estadísticos tienen una serie de parámetros que se pueden modificar. Por ejemplo, una moneda se puede representar como muestras de una distribución de Bernoulli , que modela dos posibles resultados. La distribución de Bernoulli tiene un único parámetro igual a la probabilidad de un resultado, que en la mayoría de los casos es la probabilidad de caer cara. Diseñar un buen modelo para los datos es fundamental en la inferencia bayesiana. En la mayoría de los casos, los modelos solo se aproximan al proceso real y es posible que no tengan en cuenta ciertos factores que influyen en los datos. [1] En la inferencia bayesiana, las probabilidades se pueden asignar a los parámetros del modelo. Los parámetros se pueden representar como variables aleatorias . La inferencia bayesiana utiliza el teorema de Bayes para actualizar las probabilidades después de que se obtiene o se conoce más evidencia. [1] [8]
Modelado estadístico
La formulación de modelos estadísticos que utilizan estadísticas bayesianas tiene la característica de identificación de requerir la especificación de distribuciones previas para cualquier parámetro desconocido. De hecho, los parámetros de distribuciones previas pueden tener distribuciones previas, lo que lleva a un modelado jerárquico bayesiano , [9] o pueden estar interrelacionados, lo que lleva a redes bayesianas .
Diseño de experimentos
El diseño bayesiano de experimentos incluye un concepto llamado "influencia de creencias previas". Este enfoque utiliza técnicas de análisis secuencial para incluir el resultado de experimentos anteriores en el diseño del próximo experimento. Esto se logra actualizando las "creencias" mediante el uso de la distribución anterior y posterior . Esto permite el diseño de experimentos para hacer un buen uso de recursos de todo tipo. Un ejemplo de esto es el problema de los bandidos armados múltiples .
Análisis exploratorio de modelos bayesianos
El análisis exploratorio de modelos bayesianos es una adaptación o extensión del enfoque de análisis de datos exploratorios a las necesidades y peculiaridades del modelado bayesiano. En palabras de Persi Diaconis: [10]
El análisis exploratorio de datos busca revelar estructura o descripciones simples en los datos. Observamos números o gráficos e intentamos encontrar patrones. Buscamos pistas sugeridas por información de antecedentes, imaginación, patrones percibidos y experiencia con otros análisis de datos.
El proceso de inferencia genera una distribución posterior, que tiene un papel central en la estadística bayesiana, junto con otras distribuciones como la distribución predictiva posterior y la distribución predictiva previa. La correcta visualización, análisis e interpretación de estas distribuciones es clave para responder adecuadamente las preguntas que motivan el proceso de inferencia. [11]
Cuando se trabaja con modelos bayesianos, hay una serie de tareas relacionadas que deben abordarse además de la inferencia en sí:
- Diagnósticos de la calidad de la inferencia, esto es necesario cuando se utilizan métodos numéricos como las técnicas de Monte Carlo en cadena de Markov.
- Crítica del modelo, incluidas evaluaciones de los supuestos del modelo y las predicciones del modelo
- Comparación de modelos, incluida la selección de modelos o el promedio de modelos
- Elaboración de los resultados para una audiencia en particular
Todas estas tareas son parte del enfoque de análisis exploratorio de modelos bayesianos y realizarlas con éxito es fundamental para el proceso de modelado iterativo e interactivo. Estas tareas requieren resúmenes tanto numéricos como visuales. [12] [13] [14]
Ver también
- Epistemología bayesiana
Referencias
- ^ a b c d e f g h i Gelman, Andrew ; Carlin, John B .; Stern, Hal S .; Dunson, David B .; Vehtari, Aki; Rubin, Donald B. (2013). Análisis de datos bayesianos, tercera edición . Chapman y Hall / CRC. ISBN 978-1-4398-4095-5.
- ^ a b McElreath, Richard (2015). Repensamiento estadístico, primera edición . Chapman y Hall / CRC. ISBN 978-1-4822-5344-3.
- ^ Kruschke, John (2014). Haciendo análisis de datos bayesianos, segunda edición . Prensa académica. ISBN 978-0-1240-5888-0.
- ^ McGrayne, Sharon (2012). La teoría que no moriría: cómo la regla de Bayes descifró el código Enigma, persiguió a los submarinos rusos y emergió triunfante de dos siglos de controversia, primera edición . Chapman y Hall / CRC. ISBN 978-0-3001-8822-6.
- ^ Fienberg, Stephen E. (2006). "¿Cuándo se volvió" bayesiana "la inferencia bayesiana?" . Análisis bayesiano . 1 (1): 1–40. doi : 10.1214 / 06-BA101 .
- ^ a b Grinstead, Charles M .; Snell, J. Laurie (2006). Introducción a la probabilidad (2ª ed.). Providence, RI: Sociedad Matemática Estadounidense. ISBN 978-0-8218-9414-9.
- ^ Wakefield, Jon (2013). Métodos de regresión bayesiana y frecuentista . Nueva York, NY: Springer. ISBN 978-1-4419-0924-4.
- ^ Congdon, Peter (2014). Modelado bayesiano aplicado (2ª ed.). Wiley. ISBN 978-1119951513.
- ^ Hajiramezanali, E. & Dadaneh, SZ & Karbalayghareh, A. & Zhou, Z. & Qian, X. Aprendizaje de múltiples dominios bayesianos para el descubrimiento de subtipos de cáncer a partir de datos de recuento de secuenciación de próxima generación. 32a Conferencia sobre sistemas de procesamiento de información neuronal (NIPS 2018), Montreal, Canadá. arXiv : 1810.09433
- ^ Diaconis, Persi (2011) Teorías del análisis de datos: del pensamiento mágico a través de la estadística clásica. John Wiley & Sons, Ltd 2: e55 10.1002 / 9781118150702.ch1
- ^ Kumar, Ravin; Carroll, Colin; Hartikainen, Ari; Martín, Osvaldo (2019). "ArviZ una biblioteca unificada para el análisis exploratorio de modelos bayesianos en Python" . Revista de software de código abierto . 4 (33): 1143. Bibcode : 2019JOSS .... 4.1143K . doi : 10.21105 / joss.01143 .
- ^ Gabry, Jonah; Simpson, Daniel; Vehtari, Aki; Betancourt, Michael; Gelman, Andrew (2019). "Visualización en flujo de trabajo bayesiano". Revista de la Royal Statistical Society, Serie A (Estadísticas en la sociedad) . 182 (2): 389–402. arXiv : 1709.01449 . doi : 10.1111 / rssa.12378 . S2CID 26590874 .
- ^ Vehtari, Aki; Gelman, Andrew; Simpson, Daniel; Carpenter, Bob; Bürkner, Paul-Christian (2019). "Normalización de rango, plegado y localización: un $ \ widehat {R} $ mejorado para evaluar la convergencia de MCMC". arXiv : 1903.08008 . Cite journal requiere
|journal=
( ayuda ) - ^ Martín, Osvaldo (2018). Análisis Bayesiano con Python: Introducción al modelado estadístico y programación probabilística usando PyMC3 y ArviZ . Packt Publishing Ltd. ISBN 9781789341652.
Otras lecturas
- Piense en Bayes, Allen B. Downey
- Estadísticas bayesianas: por qué y cómo
- Puga JL, Krzywinski M, Altman N (mayo de 2015). "Estadísticas bayesianas". Puntos de importancia. Métodos de la naturaleza . 12 (5): 377–8. doi : 10.1038 / nmeth.3368 . PMID 26120626 . S2CID 30636134 .
enlaces externos
- Eliezer S. Yudkowsky. "Una explicación intuitiva del teorema de Bayes" (página web) . Consultado el 15 de junio de 2015 .
- Theo Kypraios. "Un tutorial suave en estadísticas bayesianas" (PDF) . Consultado el 3 de noviembre de 2013 .
- Jordi Vallverdu. "Bayesianos versus frecuentistas un debate filosófico sobre el razonamiento estadístico" .
- Estadísticas bayesianas David Spiegelhalter , Kenneth Rice Scholarpedia 4 (8): 5230. doi: 10.4249 / scholarpedia.5230
- Libro de modelado bayesiano y ejemplos disponibles para descargar.
- Rens Van De Schoot. "Una suave introducción al análisis bayesiano" (PDF) .
- Rendimiento dinámico de la calculadora de pruebas bayesianas A / B