En probabilidad bayesiana teoría, si la distribución posterior P ( θ | x ) son de la misma familia de distribución de probabilidad como la distribución de probabilidad antes de p (θ), el anterior y posterior a continuación, son los llamados distribuciones conjugadas, y el anterior se llama un conjugado antes para la función de verosimilitud p (x | θ ). Por ejemplo, la familia gaussiana está conjugada consigo misma (o autoconjugada) con respecto a una función de verosimilitud gaussiana: si la función de verosimilitud es gaussiana, elegir un anterior gaussiano sobre la media asegurará que la distribución posterior también sea gaussiana. Esto significa que la distribución gaussiana es una previa conjugada para la probabilidad que también es gaussiana. El concepto, así como el término "previo conjugado", fueron introducidos por Howard Raiffa y Robert Schlaifer en su trabajo sobre la teoría de la decisión bayesiana . [1] George Alfred Barnard había descubierto de forma independiente un concepto similar . [2]
Considere el problema general de inferir una distribución (continua) para un parámetro θ dado algún dato o dato x . Del teorema de Bayes , la distribución posterior es igual al producto de la función de verosimilitud y antes , normalizado (dividido) por la probabilidad de los datos :
Consideremos fija la función de verosimilitud; la función de probabilidad generalmente está bien determinada a partir de una declaración del proceso de generación de datos, por ejemplo, la probabilidad de obtener r caras sobre n lanzamientos de una moneda justa no se verá influenciada por los lanzamientos. Está claro que diferentes elecciones de la distribución previa p ( θ ) pueden hacer que la integral sea más o menos difícil de calcular, y el producto p ( x | θ ) × p ( θ ) puede tomar una forma algebraica u otra. Para ciertas elecciones del anterior, el posterior tiene la misma forma algebraica que el anterior (generalmente con diferentes valores de parámetros). Tal elección es un previo conjugado .
Un prior conjugado es una conveniencia algebraica, que da una expresión de forma cerrada para el posterior; de lo contrario, puede ser necesaria la integración numérica . Además, los previos conjugados pueden dar intuición al mostrar de manera más transparente cómo una función de probabilidad actualiza una distribución anterior.
Todos los miembros de la familia exponencial tienen priores conjugados. [3]
Ejemplo
La forma del conjugado a priori generalmente se puede determinar mediante la inspección de la densidad de probabilidad o la función de masa de probabilidad de una distribución. Por ejemplo, considere una variable aleatoria que consiste en el número de éxitos en Ensayos de Bernoulli con probabilidad de éxito desconocidaen [0,1]. Esta variable aleatoria seguirá la distribución binomial , con una función de masa de probabilidad de la forma
El conjugado previo habitual es la distribución beta con parámetros (, ):
dónde y se eligen para reflejar cualquier creencia o información existente ( = 1 y = 1 daría una distribución uniforme ) y Β (, ) es la función Beta que actúa como una constante de normalización .
En este contexto, y se denominan hiperparámetros (parámetros del anterior), para distinguirlos de los parámetros del modelo subyacente (aquí q ). Una característica típica de los priores conjugados es que la dimensionalidad de los hiperparámetros es mayor que la de los parámetros de la distribución original. Si todos los parámetros son valores escalares, esto significa que habrá un hiperparámetro más que un parámetro; pero esto también se aplica a los parámetros con valores vectoriales y con valores matriciales. (Consulte el artículo general sobre la familia exponencial y considere también la distribución de Wishart , antes conjugada de la matriz de covarianza de una distribución normal multivariante , para ver un ejemplo en el que está involucrada una gran dimensionalidad).
Si luego tomamos una muestra de esta variable aleatoria y obtenemos s éxitos yf fracasos, tenemos
que es otra distribución Beta con parámetros (+ s ,+ f ). Esta distribución posterior podría usarse como anterior para más muestras, y los hiperparámetros simplemente agregan cada pieza adicional de información a medida que se presenta.
Pseudo-observaciones
A menudo es útil pensar en los hiperparámetros de una distribución previa conjugada como correspondientes a haber observado un cierto número de pseudo-observaciones con propiedades especificadas por los parámetros. Por ejemplo, los valores y de una distribución beta se puede considerar como correspondiente a éxitos y fallos si se utiliza el modo posterior para elegir un ajuste de parámetro óptimo, o éxitos y fallos si se utiliza la media posterior para elegir un ajuste de parámetro óptimo. En general, para casi todas las distribuciones previas conjugadas, los hiperparámetros se pueden interpretar en términos de pseudoobservaciones. Esto puede ayudar tanto a proporcionar una intuición detrás de las ecuaciones de actualización, a menudo desordenadas, como a ayudar a elegir hiperparámetros razonables para un anterior.
Interpretaciones
Analogía con funciones propias [ cita requerida ]
Los priores conjugados son análogos a las funciones propias en la teoría del operador , en el sentido de que son distribuciones sobre las que el "operador condicionante" actúa de una manera bien entendida, pensando en el proceso de cambio del anterior al posterior como un operador.
Tanto en las funciones propias como en los priores conjugados, existe un espacio de dimensión finita que es preservado por el operador: la salida es de la misma forma (en el mismo espacio) que la entrada. Esto simplifica enormemente el análisis, ya que de lo contrario considera un espacio de dimensión infinita (espacio de todas las funciones, espacio de todas las distribuciones).
Sin embargo, los procesos son solo análogos, no idénticos: el condicionamiento no es lineal, ya que el espacio de distribuciones no está cerrado bajo combinación lineal , solo combinación convexa , y el posterior es solo de la misma forma que el anterior, no un múltiplo escalar.
Así como se puede analizar fácilmente cómo una combinación lineal de funciones propias evoluciona bajo la aplicación de un operador (porque, con respecto a estas funciones, el operador está diagonalizado ), se puede analizar fácilmente cómo una combinación convexa de priores conjugados evoluciona bajo condicionamiento; esto se llama usar un hiperprior , y corresponde al uso de una densidad de mezcla de conjugados a priori, en lugar de un solo conjugado a priori.
Sistema dinámico
Se puede pensar en el condicionamiento de los previos conjugados como la definición de una especie de sistema dinámico (tiempo discreto) : a partir de un conjunto dado de hiperparámetros, los datos entrantes actualizan estos hiperparámetros, por lo que se puede ver el cambio en los hiperparámetros como una especie de "evolución temporal" el sistema, correspondiente al "aprendizaje". Comenzar en diferentes puntos produce diferentes flujos a lo largo del tiempo. Esto es nuevamente análogo al sistema dinámico definido por un operador lineal, pero tenga en cuenta que dado que diferentes muestras conducen a diferentes inferencias, esto no depende simplemente del tiempo, sino de los datos a lo largo del tiempo. Para conocer los enfoques relacionados, consulte Estimación bayesiana recursiva y asimilación de datos .
Ejemplo practico
Suponga que en su ciudad opera un servicio de alquiler de coches. Los conductores pueden dejar y recoger automóviles en cualquier lugar dentro de los límites de la ciudad. Puede buscar y alquilar coches mediante una aplicación.
Suponga que desea hallar la probabilidad de que pueda encontrar un coche de alquiler a poca distancia de su domicilio en cualquier momento del día.
Durante tres días, miras la aplicación en momentos aleatorios del día y encuentras la siguiente cantidad de autos a poca distancia de tu domicilio:
Si asumimos que los datos provienen de una distribución de Poisson , podemos calcular la estimación de máxima verosimilitud de los parámetros del modelo que es Usando esta estimación de máxima verosimilitud, podemos calcular la probabilidad de que haya al menos un automóvil disponible:
Esta es la distribución de Poisson que es el más probabilidades de haber generado los datos observados. Pero los datos también podrían provenir de otra distribución de Poisson, por ejemplo, una con, o , etc. De hecho, hay un número infinito de distribuciones de Poisson que podrían haber generado los datos observados y, con relativamente pocos puntos de datos, deberíamos estar bastante inseguros acerca de qué distribución de Poisson exacta generó estos datos. Intuitivamente deberíamos en cambio tomar un promedio ponderado de la probabilidad de para cada una de esas distribuciones de Poisson, ponderadas por la probabilidad de que sean cada una, dados los datos que hemos observado .
Generalmente, esta cantidad se conoce como distribución predictiva posterior dónde es un nuevo punto de datos, son los datos observados y son los parámetros del modelo. Usando el teorema de Bayes podemos expandir tal que Generalmente, esta integral es difícil de calcular. Sin embargo, si elige una distribución previa conjugada, se puede derivar una expresión de forma cerrada. Esta es la columna predictiva posterior en las tablas siguientes.
Volviendo a nuestro ejemplo, si elegimos la distribución Gamma como nuestra distribución anterior sobre la tasa de las distribuciones de Poisson, entonces el predictivo posterior es la distribución binomial negativa como se puede ver en la última columna de la tabla a continuación. La distribución Gamma está parametrizada por dos hiperparámetrosque tenemos que elegir. Al observar los gráficos de la distribución gamma, seleccionamos, que parece ser una previa razonable para el número medio de coches. La elección de hiperparámetros previos es intrínsecamente subjetiva y se basa en conocimientos previos.
Dados los hiperparámetros anteriores y podemos calcular los hiperparámetros posteriores y
Dados los hiperparámetros posteriores, finalmente podemos calcular el predictivo posterior de
Esta estimación mucho más conservadora refleja la incertidumbre en los parámetros del modelo, que el predictivo posterior tiene en cuenta.
Tabla de distribuciones conjugadas
Sea n el número de observaciones. En todos los casos siguientes, se supone que los datos constan de n puntos(que serán vectores aleatorios en los casos multivariados).
Si la función de verosimilitud pertenece a la familia exponencial , entonces existe un previo conjugado, a menudo también en la familia exponencial; ver Familia exponencial: distribuciones conjugadas .
Cuando la función de verosimilitud es una distribución discreta
Probabilidad | Parámetros del modelo | Distribución previa conjugada | Hiperparámetros previos | Hiperparámetros posteriores [nota 1] | Interpretación de hiperparámetros | Predictivo posterior [nota 2] |
---|---|---|---|---|---|---|
Bernoulli | p (probabilidad) | Beta | éxitos fallas [nota 3] | |||
Binomio | p (probabilidad) | Beta | éxitos fallas [nota 3] | ( beta-binomio ) | ||
Binomio negativo con número de falla conocido, r | p (probabilidad) | Beta | éxitos totales, fallas [nota 3] (es decir, experimentos, asumiendo permanece fijo) | (binomio beta-negativo) | ||
Poisson | λ (tasa) | Gama | ocurrencias totales en intervalos | ( binomio negativo ) | ||
[nota 4] | ocurrencias totales en intervalos | ( binomio negativo ) | ||||
Categórico | p (vector de probabilidad), k (número de categorías; es decir, tamaño de p ) | Dirichlet | dónde es el número de observaciones en la categoría i | ocurrencias de categoría [nota 3] | ||
Multinomial | p (vector de probabilidad), k (número de categorías; es decir, tamaño de p ) | Dirichlet | ocurrencias de categoría [nota 3] | ( Dirichlet-multinomial ) | ||
Hipergeométrico con tamaño de población total conocido, N | M (número de miembros objetivo) | Beta-binomio [4] | éxitos fallas [nota 3] | |||
Geométrico | p 0 (probabilidad) | Beta | experimentos fallas totales [nota 3] |
Cuando la función de verosimilitud es una distribución continua
Probabilidad | Parámetros del modelo | Distribución previa conjugada | Hiperparámetros previos | Hiperparámetros posteriores [nota 1] | Interpretación de hiperparámetros | Predictivo posterior [nota 5] | |
---|---|---|---|---|---|---|---|
Normal con varianza conocida σ 2 | μ (media) | Normal | la media se estimó a partir de observaciones con precisión total (suma de todas las precisiones individuales) y con media muestral | [5] | |||
Normal con precisión conocida τ | μ (media) | Normal | la media se estimó a partir de observaciones con precisión total (suma de todas las precisiones individuales) y con media muestral | [5] | |||
Normal con media conocida μ | σ 2 (varianza) | Gamma inversa | [nota 6] | la varianza se estimó a partir de observaciones con varianza muestral (es decir, con la suma de las desviaciones al cuadrado , donde las desviaciones son de la media conocida ) | [5] | ||
Normal con media conocida μ | σ 2 (varianza) | Chi-cuadrado inverso escalado | la varianza se estimó a partir de observaciones con varianza muestral | [5] | |||
Normal con media conocida μ | τ (precisión) | Gama | [nota 4] | la precisión se estimó a partir de observaciones con varianza muestral (es decir, con la suma de las desviaciones al cuadrado , donde las desviaciones son de la media conocida ) | [5] | ||
Normal [nota 7] | μ y σ 2 Suponiendo intercambiabilidad | Gamma normal-inversa |
| la media se estimó a partir de observaciones con media muestral ; la varianza se estimó a partir de observaciones con media muestral y suma de desviaciones cuadradas | [5] | ||
Normal | μ y τ Suponiendo intercambiabilidad | Normal-gamma |
| la media se estimó a partir de observaciones con media muestral , y la precisión se estimó a partir de observaciones con media muestral y suma de desviaciones cuadradas | [5] | ||
Normal multivariante con matriz de covarianza conocida Σ | μ (vector medio) | Normal multivariante |
| la media se estimó a partir de observaciones con precisión total (suma de todas las precisiones individuales) y con media muestral | [5] | ||
Normal multivariante con matriz de precisión conocida Λ | μ (vector medio) | Normal multivariante |
| la media se estimó a partir de observaciones con precisión total (suma de todas las precisiones individuales) y con media muestral | [5] | ||
Normal multivariante con media conocida μ | Σ (matriz de covarianza) | Wishart inverso | La matriz de covarianza se estimó a partir de observaciones con suma de productos de desviación por pares | [5] | |||
Normal multivariante con media conocida μ | Λ (matriz de precisión) | Wishart | La matriz de covarianza se estimó a partir de observaciones con suma de productos de desviación por pares | [5] | |||
Normal multivariante | μ (vector medio) y Σ (matriz de covarianza) | normal-inverso-Wishart |
| la media se estimó a partir de observaciones con media muestral ; La matriz de covarianza se estimó a partir de observaciones con media muestral y con la suma de los productos de desviación por pares | [5] | ||
Normal multivariante | μ (vector medio) y Λ (matriz de precisión) | normal-Wishart |
| la media se estimó a partir de observaciones con media muestral ; La matriz de covarianza se estimó a partir de observaciones con media muestral y con la suma de los productos de desviación por pares | [5] | ||
Uniforme | Pareto | observaciones con valor máximo | |||||
Pareto con mínimo conocido x m | k (forma) | Gama | observaciones con suma del orden de magnitud de cada observación (es decir, el logaritmo de la relación de cada observación al mínimo) | ||||
Weibull con forma conocida β | θ (escala) | Gamma inversa [4] | observaciones con suma de la β ' ésima potencia de cada observación | ||||
Logaritmo normal | Lo mismo que para la distribución normal después de aplicar el logaritmo natural a los datos de los hiperparámetros posteriores. Consulte las páginas 21 y 22 [6] para ver los detalles. | ||||||
Exponencial | λ (tasa) | Gama | [nota 4] | observaciones que suman [7] | ( Distribución Lomax ) | ||
Gamma con forma conocida α | β (tasa) | Gama | observaciones con suma | [nota 8] | |||
Gamma inversa con forma conocida α | β (escala inversa) | Gama | observaciones con suma | ||||
Gamma con tasa conocida β | α (forma) | o observaciones para estimar , para estimar ) con producto | |||||
Gamma [4] | α (forma), β (escala inversa) | fue estimado a partir de observaciones con producto ; fue estimado a partir de observaciones con suma |
Ver también
- Distribución beta-binomial
Notas
- ^ a b Denominado por los mismos símbolos que los hiperparámetros anteriores con primos agregados ('). Por ejemplo se denota
- ^ Esta es la distribución predictiva posterior de un nuevo punto de datosdados los puntos de datos observados, con los parámetros marginados . Las variables con primos indican los valores posteriores de los parámetros.
- ^ a b c d e f g La interpretación exacta de los parámetros de una distribución beta en términos de número de éxitos y fracasos depende de la función que se utilice para extraer una estimación puntual de la distribución. La media de una distribución beta es que corresponde a éxitos y fallas, mientras que el modo es que corresponde a éxitos y fracasos. Los bayesianos generalmente prefieren usar la media posterior en lugar del modo posterior como una estimación puntual, justificada por una función de pérdida cuadrática, y el uso de y es más conveniente matemáticamente, mientras que el uso de y tiene la ventaja de que un uniforme prior corresponde a 0 éxitos y 0 fracasos. Los mismos problemas se aplican a la distribución de Dirichlet .
- ^ a b c β es tasa o escala inversa. En la parametrización de la distribución gamma , θ = 1 / β y k = α .
- ^ Esta es la distribución predictiva posterior de un nuevo punto de datosdados los puntos de datos observados, con los parámetros marginados . Las variables con primos indican los valores posteriores de los parámetros. y se refieren a la distribución normal y la distribución t de Student , respectivamente, oa la distribución normal multivariada y la distribución t multivariada en los casos multivariados.
- ^ En términos de la gamma inversa ,es un parámetro de escala
- ^ Un antecedente conjugado diferente para la media y la varianza desconocidas, pero con una relación lineal fija entre ellas, se encuentra en la mezcla de varianza-media normal , con ladistribución de mezcla conjugada gaussiana inversa generalizada .
- ^ es una distribución gamma compuesta ;aquí hay una distribución principal beta generalizada .
Referencias
- ^ Howard Raiffa y Robert Schlaifer . Teoría de la decisión estadística aplicada . División de Investigación, Escuela de Graduados en Administración de Empresas, Universidad de Harvard, 1961.
- ^ Jeff Miller y col. Los primeros usos conocidos de algunas de las palabras de las matemáticas , "conjugan distribuciones previas" . Documento electrónico, revisión del 13 de noviembre de 2005, consultado el 2 de diciembre de 2005.
- ^ Para un catálogo, vea Gelman, Andrew ; Carlin, John B .; Stern, Hal S .; Rubin, Donald B. (2003). Análisis de datos bayesianos (2ª ed.). Prensa CRC. ISBN 1-58488-388-X.
- ^ a b c Fink, Daniel (mayo de 1997). "Un compendio de anteriores conjugados" (PDF) . CiteSeerX 10.1.1.157.5540 . Archivado desde el original (PDF) el 29 de mayo de 2009.
- ^ a b c d e f g h yo j k l m Murphy, Kevin P. (2007), Análisis conjugado bayesiano de la distribución gaussiana (PDF)
- ^ (PDF) https://courses.physics.ucsd.edu/2018/Fall/physics210b/REFERENCES/conjugate_priors.pdf . Falta o vacío
|title=
( ayuda ) - ^ Aprendizaje automático estadístico, por Han Liu y Larry Wasserman, 2014, pág. 314: http://www.stat.cmu.edu/~larry/=sml/Bayes.pdf