El modelado jerárquico bayesiano es un modelo estadístico escrito en múltiples niveles (forma jerárquica) que estima los parámetros de la distribución posterior utilizando el método bayesiano . [1] Los submodelos se combinan para formar el modelo jerárquico, y el teorema de Bayes se utiliza para integrarlos con los datos observados y dar cuenta de toda la incertidumbre que está presente. El resultado de esta integración es la distribución posterior, también conocida como estimación de probabilidad actualizada, ya que se adquiere evidencia adicional sobre la distribución previa .
La estadística frecuente puede arrojar conclusiones aparentemente incompatibles con las ofrecidas por la estadística bayesiana debido al tratamiento bayesiano de los parámetros como variables aleatorias y su uso de información subjetiva para establecer supuestos sobre estos parámetros. [2] Dado que los enfoques responden a preguntas diferentes, los resultados formales no son técnicamente contradictorios, pero los dos enfoques discrepan sobre qué respuesta es relevante para aplicaciones particulares. Los bayesianos argumentan que la información relevante sobre la toma de decisiones y la actualización de creencias no se puede ignorar y que el modelado jerárquico tiene el potencial de invalidar los métodos clásicos en aplicaciones donde los encuestados brindan múltiples datos de observación. Además, el modelo ha demostrado ser robusto, con la distribución posterior menos sensible a los priores jerárquicos más flexibles.
El modelado jerárquico se utiliza cuando hay información disponible en varios niveles diferentes de unidades de observación. Por ejemplo, en el modelado epidemiológico para describir las trayectorias de infección de varios países, las unidades de observación son países, y cada país tiene su propio perfil temporal de casos infectados diarios. [3] En el análisis de la curva de declive para describir la curva de decurva de la producción de petróleo o gas para múltiples pozos, las unidades de observación son pozos de petróleo o gas en una región de yacimiento, y cada pozo tiene cada uno de sus perfiles temporales de tasas de producción de petróleo o gas (generalmente, barriles por mes). [4] La estructura de datos para el modelado jerárquico conserva la estructura de datos anidada. La forma jerárquica de análisis y organización ayuda en la comprensión de problemas multiparamétricos y también juega un papel importante en el desarrollo de estrategias computacionales. [5]
Filosofía
Los métodos y modelos estadísticos comúnmente involucran múltiples parámetros que pueden considerarse relacionados o conectados de tal manera que el problema implica la dependencia del modelo de probabilidad conjunta para estos parámetros. [6] Los grados individuales de creencia, expresados en forma de probabilidades, vienen acompañados de incertidumbre. [7] En medio de esto está el cambio de los grados de creencia a lo largo del tiempo. Como afirmaron el profesor José M. Bernardo y el profesor Adrian F. Smith , “la actualidad del proceso de aprendizaje consiste en la evolución de creencias individuales y subjetivas sobre la realidad”. Estas probabilidades subjetivas están involucradas más directamente en la mente que en las probabilidades físicas. [7] Por lo tanto, es con esta necesidad de actualizar las creencias que los bayesianos han formulado un modelo estadístico alternativo que toma en cuenta la ocurrencia previa de un evento particular. [8]
Teorema de Bayes
La supuesta ocurrencia de un evento del mundo real típicamente modificará las preferencias entre ciertas opciones. Esto se hace modificando los grados de creencia asociados, por un individuo, a los eventos que definen las opciones. [9]
Supongamos en un estudio de la efectividad de los tratamientos cardíacos, con los pacientes en el hospital j con probabilidad de supervivencia, la probabilidad de supervivencia se actualizará con la ocurrencia de y , evento en el que se crea un suero controvertido que, como algunos creen, aumenta la supervivencia en pacientes cardíacos.
Para hacer declaraciones de probabilidad actualizadas sobre , dada la ocurrencia del evento y , debemos comenzar con un modelo que proporcione una distribución de probabilidad conjunta paray y . Esto se puede escribir como un producto de las dos distribuciones que a menudo se denominan distribución previa.y la distribución muestral respectivamente:
Usando la propiedad básica de la probabilidad condicional , la distribución posterior producirá:
Esta ecuación, que muestra la relación entre la probabilidad condicional y los eventos individuales, se conoce como teorema de Bayes. Esta simple expresión encapsula el núcleo técnico de la inferencia bayesiana que tiene como objetivo incorporar la creencia actualizada,, de manera apropiada y solucionable. [9]
Intercambiabilidad
El punto de partida habitual de un análisis estadístico es la suposición de que los n valoresson intercambiables. Si no hay información disponible, aparte de los datos y , para distinguires de cualquier otro, y no se puede ordenar o agrupar los parámetros, se debe asumir la simetría entre los parámetros en su distribución previa. [10] Esta simetría está representada probabilísticamente por intercambiabilidad. Generalmente, es útil y apropiado modelar datos de una distribución intercambiable como distribuidos de forma independiente e idéntica , dado algún vector de parámetro desconocido, con distribución .
Intercambiabilidad finita
Para un número fijo n , el conjunto es intercambiable si la probabilidad conjunta es invariante bajo permutaciones de los índices. Es decir, para cada permutación o de (1, 2,…, n ),[11]
A continuación se muestra un ejemplo intercambiable, pero no independiente e idéntico (iid): Considere una urna con una bola roja y una bola azul adentro, con probabilidad de dibujar tampoco. Las bolas se extraen sin reemplazo, es decir, después de que se extrae una bola de las n bolas, quedarán n - 1 bolas restantes para el próximo sorteo.
Dado que la probabilidad de seleccionar una bola roja en el primer sorteo y una bola azul en el segundo sorteo es igual a la probabilidad de seleccionar una bola azul en el primer sorteo y una roja en el segundo sorteo, ambas iguales a 1 / 2 (es decir ), luego y son intercambiables.
Pero la probabilidad de seleccionar una bola roja en el segundo sorteo dado que la bola roja ya ha sido seleccionada en el primer sorteo es 0, y no es igual a la probabilidad de que la bola roja sea seleccionada en el segundo sorteo que es igual a 1 / 2 (es decir ). Por lo tanto, y no son independientes.
Si son independientes e idénticamente distribuidos, entonces son intercambiables, pero lo contrario no es necesariamente cierto. [12]
Intercambiabilidad infinita
La intercambiabilidad infinita es la propiedad de que todo subconjunto finito de una secuencia infinita , es intercambiable. Es decir, para cualquier n , la secuenciaes intercambiable. [12]
Modelos jerárquicos
Componentes
El modelado jerárquico bayesiano hace uso de dos conceptos importantes para derivar la distribución posterior, [1] a saber:
- Hiperparámetros : parámetros de la distribución previa
- Hyperpriors : distribuciones de hiperparámetros
Suponga que una variable aleatoria Y sigue una distribución normal con el parámetro θ como media y 1 como varianza , es decir. La relación de tildese puede leer como "tiene la distribución de" o "se distribuye como". Supongamos también que el parámetrotiene una distribución dada por una distribución normal con media y varianza 1, es decir . Además,sigue otra distribución dada, por ejemplo, por la distribución normal estándar ,. El parámetro se llama hiperparámetro, mientras que su distribución está dada por es un ejemplo de distribución hiperprior. La notación de la distribución de Y cambia a medida que se agrega otro parámetro, es decir. Si hay otra etapa, diga, sigue otra distribución normal con media y varianza , significado , y también se pueden llamar hiperparámetros, mientras que sus distribuciones también son distribuciones hiperpriorres. [6]
Marco de referencia
Dejar ser una observación y un parámetro que rige el proceso de generación de datos para . Suponga además que los parámetros se generan de forma intercambiable a partir de una población común, con una distribución gobernada por un hiperparámetro .
El modelo jerárquico bayesiano contiene las siguientes etapas:
La probabilidad, como se ve en la etapa I, es , con como su distribución previa. Tenga en cuenta que la probabilidad depende de solo a través .
La distribución previa de la etapa I se puede desglosar en:
- [de la definición de probabilidad condicional]
Con como su hiperparámetro con distribución hiperprior, .
Por tanto, la distribución posterior es proporcional a:
- [usando el teorema de Bayes]
Ejemplo
Para ilustrar más esto, considere el ejemplo: Un maestro quiere estimar qué tan bien le fue a un estudiante en el SAT . El maestro usa información sobre las calificaciones de la escuela secundaria del estudiante y el promedio de calificaciones actual (GPA) para llegar a una estimación. El GPA actual del estudiante, denotado por, tiene una probabilidad dada por alguna función de probabilidad con parámetro , es decir . Este parámetroes el puntaje SAT del estudiante. La puntuación del SAT se considera una muestra procedente de una distribución de población común indexada por otro parámetro., que es el grado de escuela secundaria del estudiante (primer, segundo, tercer o cuarto año). [14] Es decir,. Además, el hiperparámetro sigue su propia distribución dada por , un hiperprior. Para resolver la puntuación del SAT dada la información sobre el GPA,
Toda la información del problema se utilizará para resolver la distribución posterior. En lugar de resolver solo usando la distribución previa y la función de verosimilitud, el uso de hiperpriores brinda más información para hacer creencias más precisas en el comportamiento de un parámetro. [15]
Modelo jerárquico de 2 etapas
En general, la distribución posterior conjunta de interés en los modelos jerárquicos de 2 etapas es:
Modelo jerárquico de 3 etapas
Para modelos jerárquicos de 3 etapas, la distribución posterior viene dada por:
Referencias
- ↑ a b Allenby, Rossi, McCulloch (enero de 2005). "Modelo jerárquico de Bayes: una guía para el practicante" . Revista de aplicaciones bayesianas en marketing , págs. 1–4. Consultado el 26 de abril de 2014, p. 3
- ^ Gelman, Andrew ; Carlin, John B .; Stern, Hal S. y Rubin, Donald B. (2004). Análisis de datos bayesianos (segunda ed.). Boca Raton, Florida: CRC Press. págs. 4-5. ISBN 1-58488-388-X.
- ^ Lee, Se Yoon; Lei, Bowen; Mallick, Bani (2020). "Estimación de curvas de propagación COVID-19 integrando datos globales e información de préstamo" . PLOS ONE . 15 (7): e0236860. doi : 10.1371 / journal.pone.0236860 . PMC 7390340 . PMID 32726361 .
- ^ Lee, Se Yoon; Mallick, Bani (2021). "Modelado jerárquico bayesiano: aplicación hacia resultados de producción en Eagle Ford Shale del sur de Texas" . Sânkhya B . doi : 10.1007 / s13571-020-00245-8 .
- ^ Gelman y col. 2004 , pág. 6.
- ^ a b Gelman y col. 2004 , pág. 117.
- ^ a b Bien, IJ (1980). "Un poco de historia de la metodología bayesiana jerárquica" . Trabajos de Estadística y de Investigación Operativa . 31 : 489–519. doi : 10.1007 / BF02888365 . S2CID 121270218 .
- ^ Bernardo, Smith (1994). Teoría Bayesiana . Chichester, Inglaterra: John Wiley & Sons, ISBN 0-471-92416-4 , pág. 23
- ^ a b Gelman y col. 2004 , págs. 6–8.
- ^ Bernardo, Degroot, Lindley (septiembre de 1983). “Actas del II Encuentro Internacional de Valencia” . Estadísticas bayesianas 2 . Ámsterdam: Elsevier Science Publishers BV, ISBN 0-444-87746-0 , págs. 167–168
- ^ Gelman y col. 2004 , págs. 121-125.
- ↑ a b Diaconis, Freedman (1980). “Secuencias finitas intercambiables” . Annals of Probability, págs. 745–747
- ^ Bernardo, Degroot, Lindley (septiembre de 1983). “Actas del II Encuentro Internacional de Valencia” . Estadísticas bayesianas 2 . Ámsterdam: Elsevier Science Publishers BV, ISBN 0-444-87746-0 , págs. 371–372
- ^ Gelman y col. 2004 , págs. 120-121.
- ^ a b c Cuadro GEP, Tiao GC (1965). "Problema multiparamétrico desde un punto de vista bayesiano" . Problemas multiparamétricos desde un punto de vista bayesiano Volumen 36 Número 5 . Ciudad de Nueva York: John Wiley & Sons, ISBN 0-471-57428-7