Los métodos bayesianos variacionales son una familia de técnicas para aproximar integrales intratables que surgen en la inferencia bayesiana y el aprendizaje automático . Por lo general, se utilizan en modelos estadísticos complejos que consisten en variables observadas (generalmente denominadas "datos"), así como parámetros desconocidos y variables latentes , con varios tipos de relaciones entre los tres tipos de variables aleatorias , como podría describirse mediante un modelo gráfico . Como es típico en la inferencia bayesiana, los parámetros y las variables latentes se agrupan como "variables no observadas". Los métodos bayesianos variacionales se utilizan principalmente para dos propósitos:
Derivar un límite inferior para la probabilidad marginal (a veces denominada "evidencia") de los datos observados (es decir, la probabilidad marginal de los datos dados en el modelo, con la marginación realizada sobre las variables no observadas). Esto se usa típicamente para realizar la selección del modelo , la idea general es que una mayor probabilidad marginal para un modelo dado indica un mejor ajuste de los datos por ese modelo y, por lo tanto, una mayor probabilidad de que el modelo en cuestión sea el que generó los datos. (Consulte también el artículo sobre el factor de Bayes ).
En el primer propósito (el de aproximar una probabilidad posterior), Bayes variacional es una alternativa a los métodos de muestreo de Monte Carlo - particularmente, los métodos de Monte Carlo de cadena de Markov como el muestreo de Gibbs - para adoptar un enfoque completamente bayesiano de la inferencia estadística sobre distribuciones complejas que son difícil de evaluar directamente o muestrear . En particular, mientras que las técnicas de Monte Carlo proporcionan una aproximación numérica al posterior exacto utilizando un conjunto de muestras, el Bayes Variacional proporciona una solución analítica exacta y localmente óptima para una aproximación del posterior.
Bayes variacional puede verse como una extensión del algoritmo EM ( expectativa-maximización ) desde la estimación máxima a posteriori ( estimación MAP) del valor más probable individual de cada parámetro hasta la estimación completamente bayesiana que calcula (una aproximación a) la distribución posterior completa de los parámetros y variables latentes. Como en EM, encuentra un conjunto de valores de parámetros óptimos y tiene la misma estructura alterna que EM, basada en un conjunto de ecuaciones entrelazadas (mutuamente dependientes) que no se pueden resolver analíticamente.
Para muchas aplicaciones, el Bayes variacional produce soluciones de precisión comparable al muestreo de Gibbs a mayor velocidad. Sin embargo, derivar el conjunto de ecuaciones utilizadas para actualizar los parámetros de forma iterativa a menudo requiere una gran cantidad de trabajo en comparación con la derivación de las ecuaciones de muestreo de Gibbs comparables. Este es el caso incluso de muchos modelos que son conceptualmente bastante simples, como se demuestra a continuación en el caso de un modelo básico no jerárquico con solo dos parámetros y sin variables latentes.
Derivación matemática
Problema
En inferencia variacional , la distribución posterior sobre un conjunto de variables no observadas dado algunos datos se aproxima mediante una denominada distribución variacional ,:
La distribución está restringido a pertenecer a una familia de distribuciones de forma más simple (por ejemplo, una familia de distribuciones gaussianas) que , seleccionado con la intención de hacer similar al verdadero posterior, .
La similitud (o disimilitud) se mide en términos de una función de disimilitud y por lo tanto, la inferencia se realiza seleccionando la distribución que minimiza .
Divergencia KL
El tipo más común de Bayes variacional utiliza la divergencia de Kullback-Leibler ( divergencia KL) de P de Q como la elección de la función de disimilitud. Esta elección hace que esta minimización sea manejable. La divergencia KL se define como
Tenga en cuenta que Q y P se invierten de lo que cabría esperar. Este uso de la divergencia KL invertida es conceptualmente similar al algoritmo de maximización de expectativas . (El uso de la divergencia KL de la otra manera produce el algoritmo de propagación de expectativas ).
Dificultad
Las técnicas variacionales se utilizan típicamente para formar una aproximación para:
La marginación sobre calcular en el denominador es típicamente intratable, porque, por ejemplo, el espacio de búsqueda de es combinatoriamente grande. Por tanto, buscamos una aproximación, utilizando.
Evidencia límite inferior
Dado que , la divergencia KL anterior también se puede escribir como
Porque es una constante con respecto a y porque es una distribución, tenemos
que, de acuerdo con la definición de valor esperado (para una variable aleatoria discreta ), se puede escribir de la siguiente manera
que se puede reorganizar para convertirse
Como evidencia de registro se fija con respecto a , maximizando el plazo final minimiza la divergencia KL de de . Por elección adecuada de, se vuelve manejable para calcular y maximizar. Por tanto, tenemos una aproximación analítica para el posterior y un límite inferior por la evidencia (dado que la divergencia KL no es negativa).
El límite inferior se conoce como energía libre variacional (negativa) en analogía con la energía libre termodinámica porque también se puede expresar como energía negativamás la entropía de. El terminotambién se conoce como Evidence Lower BOund , abreviado como ELBO , para enfatizar que es un límite inferior en la evidencia de los datos.
Pruebas
Mediante el teorema de Pitágoras generalizado de la divergencia de Bregman , del cual la divergencia KL es un caso especial, se puede demostrar que: [1] [2]
dónde es un conjunto convexo y la igualdad se cumple si:
En este caso, el minimizador global con se puede encontrar de la siguiente manera: [1]
en el que la constante de normalización es:
El termino a menudo se denomina límite inferior de evidencia ( ELBO ) en la práctica, ya que, [1] como se muestra arriba.
Intercambiando los roles de y podemos calcular iterativamente el aproximado y de los marginales del modelo verdadero y respectivamente. Aunque se garantiza que este esquema iterativo convergerá monótonamente, [1] la convergencia es solo un minimizador local de .
Si el espacio restringido está confinado dentro de un espacio independiente, es decir el esquema iterativo anterior se convertirá en la llamada aproximación de campo medio Como se muestra abajo.
Aproximación de campo medio
La distribución variacional generalmente se asume que factoriza sobre alguna partición de las variables latentes, es decir, para alguna partición de las variables latentes dentro ,
Puede demostrarse mediante el cálculo de variaciones (de ahí el nombre "Bayes variacional") que la "mejor" distribución para cada uno de los factores (en términos de la distribución que minimiza la divergencia KL, como se describe anteriormente) se puede expresar como:
dónde es la expectativa del logaritmo de la probabilidad conjunta de los datos y las variables latentes, tomada sobre todas las variables que no están en la partición: consulte [3] para obtener una derivación de la distribución.
En la práctica, solemos trabajar en términos de logaritmos, es decir:
La constante en la expresión anterior está relacionada con la constante de normalización (el denominador en la expresión anterior para) y generalmente se restablece mediante inspección, ya que el resto de la expresión generalmente se puede reconocer como un tipo de distribución conocido (por ejemplo , gaussiana , gamma , etc.).
Usando las propiedades de las expectativas, la expresión Por lo general, se puede simplificar en una función de los hiperparámetros fijos de las distribuciones previas sobre las variables latentes y de las expectativas (y, a veces, momentos más altos , como la varianza ) de las variables latentes que no están en la partición actual (es decir, variables latentes no incluidas en). Esto crea dependencias circulares entre los parámetros de las distribuciones sobre las variables en una partición y las expectativas de las variables en las otras particiones. Esto naturalmente sugiere un algoritmo iterativo , muy parecido a EM (el algoritmo de maximización de expectativas ), en el que las expectativas (y posiblemente momentos más altos) de las variables latentes se inicializan de alguna manera (tal vez al azar), y luego los parámetros de cada distribución son calculada a su vez utilizando los valores actuales de las expectativas, después de lo cual la expectativa de la distribución recién calculada se establece de manera apropiada de acuerdo con los parámetros calculados. Se garantiza la convergencia de un algoritmo de este tipo . [4]
En otras palabras, para cada una de las particiones de variables, al simplificar la expresión de la distribución sobre las variables de la partición y al examinar la dependencia funcional de la distribución de las variables en cuestión, generalmente se puede determinar la familia de la distribución (que a su vez determina la valor de la constante). La fórmula para los parámetros de la distribución se expresará en términos de los hiperparámetros de las distribuciones anteriores (que son constantes conocidas), pero también en términos de expectativas de funciones de variables en otras particiones. Por lo general, estas expectativas se pueden simplificar en funciones de expectativas de las propias variables (es decir, los medios ); a veces también aparecen expectativas de variables cuadradas (que pueden estar relacionadas con la varianza de las variables), o expectativas de potencias superiores (es decir, momentos superiores ). En la mayoría de los casos, las distribuciones de las otras variables serán de familias conocidas y se pueden buscar las fórmulas para las expectativas relevantes. Sin embargo, esas fórmulas dependen de los parámetros de esas distribuciones, que a su vez dependen de las expectativas sobre otras variables. El resultado es que las fórmulas para los parámetros de las distribuciones de cada variable se pueden expresar como una serie de ecuaciones con dependencias mutuas y no lineales entre las variables. Por lo general, no es posible resolver este sistema de ecuaciones directamente. Sin embargo, como se describe anteriormente, las dependencias sugieren un algoritmo iterativo simple, que en la mayoría de los casos está garantizado para converger. Un ejemplo aclarará este proceso.
Una fórmula de dualidad para la inferencia variacional
El siguiente teorema se denomina fórmula de dualidad para inferencia variacional. Explica algunas propiedades importantes de las distribuciones variacionales utilizadas en los métodos de Bayes variacionales. [5]
Teorema Considere dos espacios de probabilidad y con . Suponga que existe una medida de probabilidad dominante común tal que y . Dejardenotar cualquier variable aleatoria de valor real en que satisface . Entonces se cumple la siguiente igualdad
Además, el supremo en el lado derecho se alcanza si y sólo si se mantiene
casi seguramente con respecto a la medida de probabilidad , dónde y denotar las derivadas Radon-Nikodym de las medidas de probabilidad y con respecto a , respectivamente.
Un ejemplo basico
Considere un modelo bayesiano no jerárquico simple que consta de un conjunto de observaciones iid de una distribución gaussiana , con media y varianza desconocidas . [6] A continuación, trabajamos con este modelo en gran detalle para ilustrar el funcionamiento del método variacional de Bayes.
Por conveniencia matemática, en el siguiente ejemplo trabajamos en términos de precisión , es decir, el recíproco de la varianza (o en un gaussiano multivariado, el inverso de la matriz de covarianza ), en lugar de la varianza en sí. (Desde un punto de vista teórico, la precisión y la varianza son equivalentes ya que existe una correspondencia uno a uno entre los dos).
El modelo matemático
Ponemos anteriores conjugadas distribuciones en la media desconocida y precisión , es decir, la media también sigue una distribución gaussiana mientras que la precisión sigue una distribución gamma . En otras palabras:
Los hiperparámetros y en las distribuciones anteriores son valores fijos, dados. Se pueden establecer en números positivos pequeños para dar amplias distribuciones previas que indiquen ignorancia sobre las distribuciones previas de y .
Se nos da puntos de datos y nuestro objetivo es inferir la distribución posterior de los parámetros y
La probabilidad conjunta
La probabilidad conjunta de todas las variables se puede reescribir como
donde los factores individuales son
dónde
Aproximación factorizada
Asumir que , es decir, que la distribución posterior se factoriza en factores independientes para y . Este tipo de suposición subyace al método bayesiano variacional. De hecho, la verdadera distribución posterior no se factoriza de esta manera (de hecho, en este caso simple, se sabe que es una distribución Gaussiana-gamma ) y, por lo tanto, el resultado que obtenemos será una aproximación.
Derivación de q (μ)
Luego
En la derivación anterior, , y se refieren a valores que son constantes con respecto a . Tenga en cuenta que el término no es una función de y tendrá el mismo valor independientemente del valor de . Por lo tanto, en la línea 3 podemos absorberlo en el término constante al final. Hacemos lo mismo en la línea 7.
La última línea es simplemente un polinomio cuadrático en . Dado que este es el logaritmo de, Podemos ver eso en sí mismo es una distribución gaussiana .
Con una cierta cantidad de matemáticas tediosas (expandiendo los cuadrados dentro de las llaves, separando y agrupando los términos que involucran y y completando el cuadrado sobre), podemos derivar los parámetros de la distribución gaussiana:
Tenga en cuenta que todos los pasos anteriores se pueden acortar utilizando la fórmula para la suma de dos cuadráticas .
En otras palabras:
Derivación de q (τ)
La derivación de es similar al anterior, aunque omitimos algunos de los detalles en aras de la brevedad.
Exponenciando ambos lados, podemos ver que es una distribución gamma . Específicamente:
Algoritmo para calcular los parámetros
Recapitulemos las conclusiones de los apartados anteriores:
y
En cada caso, los parámetros para la distribución sobre una de las variables dependen de las expectativas tomadas con respecto a la otra variable. Podemos expandir las expectativas, utilizando las fórmulas estándar para las expectativas de momentos de las distribuciones gaussiana y gamma:
Aplicar estas fórmulas a las ecuaciones anteriores es trivial en la mayoría de los casos, pero la ecuación para toma más trabajo:
Entonces podemos escribir las ecuaciones de los parámetros de la siguiente manera, sin ninguna expectativa:
Tenga en cuenta que hay dependencias circulares entre las fórmulas para y . Esto naturalmente sugiere un algoritmo similar a EM :
Calcular y Utilice estos valores para calcular y
Inicializar a algún valor arbitrario.
Utilice el valor actual de junto con los valores conocidos de los otros parámetros, para calcular .
Utilice el valor actual de junto con los valores conocidos de los otros parámetros, para calcular .
Repita los dos últimos pasos hasta la convergencia (es decir, hasta que ningún valor haya cambiado más que una pequeña cantidad).
Luego tenemos valores para los hiperparámetros de las distribuciones aproximadas de los parámetros posteriores, que podemos usar para calcular las propiedades que queramos del posterior, por ejemplo, su media y varianza, una región de densidad más alta del 95% (el intervalo más pequeño que incluye 95 % de la probabilidad total), etc.
Se puede demostrar que se garantiza que este algoritmo convergerá a un máximo local.
Tenga en cuenta también que las distribuciones posteriores tienen la misma forma que las distribuciones anteriores correspondientes. Nos hicieron no asumimos esto; la única suposición que hicimos fue que las distribuciones se factorizaron, y la forma de las distribuciones siguió de forma natural. Resulta (ver más abajo) que el hecho de que las distribuciones posteriores tengan la misma forma que las distribuciones anteriores no es una coincidencia, sino un resultado general siempre que las distribuciones anteriores sean miembros de la familia exponencial , que es el caso de la mayoría de las distribuciones. distribuciones estándar.
Más discusión
Receta paso a paso
El ejemplo anterior muestra el método mediante el cual se deriva la aproximación variacional-bayesiana a una densidad de probabilidad posterior en una red bayesiana determinada :
Describir la red con un modelo gráfico , identificando las variables observadas (datos)y variables no observadas ( parámetros y variables latentes ) y sus distribuciones de probabilidad condicionales . Luego, Bayes variacional construirá una aproximación a la probabilidad posterior. La aproximación tiene la propiedad básica de que es una distribución factorizada, es decir, un producto de dos o más distribuciones independientes sobre subconjuntos disjuntos de las variables no observadas.
Divida las variables no observadas en dos o más subconjuntos, sobre los cuales se derivarán los factores independientes. No existe un procedimiento universal para hacer esto; la creación de demasiados subconjuntos produce una aproximación deficiente, mientras que la creación de muy pocos hace que todo el procedimiento de Bayes variacional sea intratable. Normalmente, la primera división consiste en separar los parámetros y las variables latentes; a menudo, esto es suficiente por sí solo para producir un resultado manejable. Suponga que las particiones se llaman.
Para una partición determinada , escriba la fórmula para obtener la mejor distribución aproximada usando la ecuación básica .
Complete la fórmula para la distribución de probabilidad conjunta usando el modelo gráfico. Cualquier componente de distribuciones condicionales que no involucre ninguna de las variables ense puede ignorar; se incorporarán al término constante.
Simplifique la fórmula y aplique el operador de expectativa, siguiendo el ejemplo anterior. Idealmente, esto debería simplificarse en expectativas de funciones básicas de variables que no están en(por ejemplo, primer o segundo momento sin procesar , expectativa de un logaritmo, etc.). Para que el procedimiento de Bayes variacional funcione bien, estas expectativas generalmente deben ser expresadas analíticamente como funciones de los parámetros y / o hiperparámetros de las distribuciones de estas variables. En todos los casos, estos términos de expectativa son constantes con respecto a las variables en la partición actual.
La forma funcional de la fórmula con respecto a las variables en la partición actual indica el tipo de distribución. En particular, exponenciar la fórmula genera la función de densidad de probabilidad (PDF) de la distribución (o al menos, algo proporcional a ella, con constante de normalización desconocida ). Para que el método global sea manejable, debería ser posible reconocer la forma funcional como perteneciente a una distribución conocida. Es posible que se requiera una manipulación matemática significativa para convertir la fórmula en una forma que coincida con el PDF de una distribución conocida. Cuando se puede hacer esto, se puede restablecer la constante de normalización por definición, y se pueden derivar ecuaciones para los parámetros de la distribución conocida extrayendo las partes apropiadas de la fórmula.
Cuando todas las expectativas pueden ser reemplazadas analíticamente con funciones de variables que no están en la partición actual, y el PDF puesto en una forma que permite la identificación con una distribución conocida, el resultado es un conjunto de ecuaciones que expresan los valores de los parámetros óptimos como funciones de la parámetros de variables en otras particiones.
Cuando este procedimiento se puede aplicar a todas las particiones, el resultado es un conjunto de ecuaciones mutuamente vinculadas que especifican los valores óptimos de todos los parámetros.
Una expectativa maximización se aplica entonces procedimiento de tipo (EM), recogiendo un valor inicial para cada parámetro y la iteración a través de una serie de pasos, en donde en cada ciclo de paso que a través de las ecuaciones, la actualización de cada parámetro, a su vez. Esto está garantizado para converger.
Puntos mas importantes
Debido a todas las manipulaciones matemáticas involucradas, es fácil perder de vista el panorama general. Las cosas importantes son:
La idea de Bayes variacional es construir una aproximación analítica a la probabilidad posterior del conjunto de variables no observadas (parámetros y variables latentes), dados los datos. Esto significa que la forma de la solución es similar a otros métodos de inferencia bayesianos , como el muestreo de Gibbs , es decir, una distribución que busca describir todo lo que se sabe sobre las variables. Como en otros métodos bayesianos, pero a diferencia de, por ejemplo, en la maximización de expectativas (EM) u otros métodos de máxima verosimilitud , ambos tipos de variables no observadas (es decir, parámetros y variables latentes) se tratan de la misma manera, es decir, como variables aleatorias . Las estimaciones de las variables se pueden derivar de las formas bayesianas estándar, por ejemplo, calculando la media de la distribución para obtener una estimación puntual única o derivando un intervalo creíble , la región de mayor densidad, etc.
"Aproximación analítica" significa que se puede escribir una fórmula para la distribución posterior. La fórmula generalmente consiste en un producto de distribuciones de probabilidad bien conocidas, cada una de las cuales factoriza sobre un conjunto de variables no observadas (es decir, es condicionalmente independiente de las otras variables, dados los datos observados). Esta fórmula no es la verdadera distribución posterior, sino una aproximación a ella; en particular, generalmente coincidirá bastante en los momentos más bajos de las variables no observadas, por ejemplo, la media y la varianza .
El resultado de todas las manipulaciones matemáticas es (1) la identidad de las distribuciones de probabilidad que componen los factores, y (2) fórmulas mutuamente dependientes para los parámetros de estas distribuciones. Los valores reales de estos parámetros se calculan numéricamente, a través de un procedimiento iterativo alterno muy parecido a EM.
Comparado con la maximización de expectativas (EM)
Bayes variacional (VB) a menudo se compara con la maximización de expectativas (EM). El procedimiento numérico real es bastante similar, en el sentido de que ambos son procedimientos iterativos alternos que convergen sucesivamente en valores de parámetros óptimos. Los pasos iniciales para derivar los respectivos procedimientos también son vagamente similares, ambos comienzan con fórmulas para densidades de probabilidad y ambos involucran cantidades significativas de manipulaciones matemáticas.
Sin embargo, existen varias diferencias. Lo más importante es lo que se está calculando.
EM calcula estimaciones puntuales de la distribución posterior de aquellas variables aleatorias que se pueden categorizar como "parámetros", pero solo estimaciones de las distribuciones posteriores reales de las variables latentes (al menos en "EM suave", y a menudo solo cuando las variables latentes son discretas ). Las estimaciones puntuales calculadas son las modalidades de estos parámetros; No hay otra informacion disponible.
VB, por otro lado, calcula estimaciones de la distribución posterior real de todas las variables, tanto parámetros como variables latentes. Cuando es necesario derivar estimaciones puntuales, generalmente se usa la media en lugar de la moda, como es normal en la inferencia bayesiana. Concomitante con esto, los parámetros calculados en VB no tienen el mismo significado que los de EM. EM calcula los valores óptimos de los parámetros de la propia red Bayes. VB calcula valores óptimos de los parámetros de las distribuciones utilizadas para aproximar los parámetros y variables latentes de la red de Bayes. Por ejemplo, un modelo de mezcla gaussiano típico tendrá parámetros para la media y la varianza de cada uno de los componentes de la mezcla. EM estimaría directamente los valores óptimos para estos parámetros. Sin embargo, VB primero ajustaría una distribución a estos parámetros - típicamente en forma de una distribución previa , por ejemplo, una distribución gamma inversa de escala normal - y luego calcularía valores para los parámetros de esta distribución previa, es decir, esencialmente hiperparámetros . En este caso, VB calcularía estimaciones óptimas de los cuatro parámetros de la distribución gamma inversa en escala normal que describe la distribución conjunta de la media y la varianza del componente.
Un ejemplo más complejo
Modelo de mezcla bayesiana gaussiana mediante notación de placas . Los cuadrados más pequeños indican parámetros fijos; los círculos más grandes indican variables aleatorias. Las formas rellenas indican valores conocidos. La indicación [K] significa un vector de tamaño K ; [ D , D ] significa una matriz de tamaño D × D ; K solo significa una variable categórica con K resultados. La línea ondulada que viene de z que termina en una barra transversal indica un cambio : el valor de esta variable selecciona, para las otras variables entrantes, qué valor usar fuera de la matriz de valores posibles de tamaño K.
Imagine un modelo de mezcla bayesiano gaussiano descrito de la siguiente manera: [6]
Nota:
SymDir () es la distribución simétrica de Dirichlet de dimensión, con el hiperparámetro de cada componente establecido en . La distribución de Dirichlet es el conjugado previo de la distribución categórica o distribución multinomial .
es la distribución de Wishart , que es el conjugado previo de la matriz de precisión ( matriz de covarianza inversa ) para una distribución gaussiana multivariante .
Mult () es una distribución multinomial sobre una sola observación (equivalente a una distribución categórica ). El espacio de estado es una representación "uno de K", es decir, una-vector dimensional en el que uno de los elementos es 1 (especificando la identidad de la observación) y todos los demás elementos son 0.
es la distribución gaussiana , en este caso específicamente la distribución gaussiana multivariante .
La interpretación de las variables anteriores es la siguiente:
es el conjunto de puntos de datos, cada uno de los cuales es un -vector dimensional distribuido según una distribución gaussiana multivariante .
es un conjunto de variables latentes, una por punto de datos, que especifica a qué componente de mezcla pertenece el punto de datos correspondiente, utilizando una representación vectorial "uno de K" con componentes por , como se describió anteriormente.
son las proporciones de mezcla para el componentes de la mezcla.
y especificar los parámetros ( media y precisión ) asociados con cada componente de la mezcla.
La probabilidad conjunta de todas las variables se puede reescribir como
donde los factores individuales son
dónde
Asumir que .
Luego
donde hemos definido
Exponenciar ambos lados de la fórmula para rendimientos
Requerir que esto se normalice termina requiriendo que el suma a 1 sobre todos los valores de , cediendo
dónde
En otras palabras, es un producto de distribuciones multinomiales de observación única y factores sobre cada individuo, que se distribuye como una distribución multinomial de observación única con parámetros por .
Además, observamos que
que es un resultado estándar para distribuciones categóricas.
Ahora, considerando el factor , tenga en cuenta que se tiene en cuenta automáticamente debido a la estructura del modelo gráfico que define nuestro modelo de mezcla gaussiana, que se especifica anteriormente.
Luego,
Tomando la exponencial de ambos lados, reconocemos como una distribución de Dirichlet
dónde
dónde
Finalmente
Agrupar y leer términos que involucran y , el resultado es una distribución de Gauss-Wishart dada por
dadas las definiciones
Finalmente, observe que estas funciones requieren los valores de , que hacen uso de , que se define a su vez en base a , , y . Ahora que hemos determinado las distribuciones sobre las que se toman estas expectativas, podemos derivar fórmulas para ellas:
Estos resultados conducen a
Estos se pueden convertir de valores proporcionales a absolutos normalizando sobre de modo que los valores correspondientes sumen 1.
Tenga en cuenta que:
Las ecuaciones de actualización para los parámetros. , , y de las variables y depende de las estadísticas , , y , y estas estadísticas a su vez dependen de .
Las ecuaciones de actualización para los parámetros. de la variable depende de la estadística , que depende a su vez de .
La ecuación de actualización para tiene una dependencia circular directa de , , y así como una dependencia circular indirecta de , y mediante y .
Esto sugiere un procedimiento iterativo que alterna entre dos pasos:
Un paso E que calcula el valor de utilizando los valores actuales de todos los demás parámetros.
Un paso M que usa el nuevo valor de para calcular nuevos valores de todos los demás parámetros.
Tenga en cuenta que estos pasos se corresponden estrechamente con el algoritmo EM estándar para derivar una solución de máxima verosimilitud o máxima a posteriori (MAP) para los parámetros de un modelo de mezcla gaussiana . Las responsabilidadesen el paso E corresponden estrechamente a las probabilidades posteriores de las variables latentes dados los datos, es decir; el cálculo de las estadísticas, , y corresponde estrechamente al cálculo de las correspondientes estadísticas de "conteo suave" sobre los datos; y el uso de esas estadísticas para calcular nuevos valores de los parámetros se corresponde estrechamente con el uso de recuentos suaves para calcular nuevos valores de parámetros en EM normal sobre un modelo de mezcla gaussiana.
Distribuciones de familias exponenciales
Tenga en cuenta que en el ejemplo anterior, una vez que se supuso que la distribución sobre las variables no observadas se factorizaba en distribuciones sobre los "parámetros" y distribuciones sobre los "datos latentes", la distribución "mejor" derivada para cada variable estaba en la misma familia que la correspondiente. distribución previa sobre la variable. Este es un resultado general que es válido para todas las distribuciones anteriores derivadas de la familia exponencial .
Ver también
Paso de mensaje variacional : un algoritmo modular para la inferencia bayesiana variacional.
Algoritmo de maximización de expectativas : un enfoque relacionado que corresponde a un caso especial de inferencia bayesiana variacional.
Filtrado generalizado : un esquema de filtrado variacional para modelos de espacio de estados no lineales.
Cálculo de variaciones : campo del análisis matemático que se ocupa de maximizar o minimizar funcionales.
Discriminación de entropía máxima : este es un marco de inferencia variacional que permite introducir y tener en cuenta restricciones adicionales de gran margen [7]
Notas
↑ a b c d Tran, Viet Hung (2018). "Inferencia de Cópula Variacional Bayes a través de la geometría de la información". arXiv : 1803.10998 [ cs.IT ].
^ a bAdamčík, Martin (2014). "La geometría de la información de las divergencias de Bregman y algunas aplicaciones en el razonamiento de múltiples expertos" . Entropía . 16 (12): 6338–6381. Código bibliográfico : 2014Entrp..16.6338A . doi : 10.3390 / e16126338 .
^Lee, Se Yoon (2021). "Inferencia variacional de ascenso y muestreo de Gibbs: una revisión teórica de conjuntos". Comunicaciones en estadística: teoría y métodos . arXiv : 2008.01006 . doi : 10.1080 / 03610926.2021.1921214 .
^Boyd, Stephen P .; Vandenberghe, Lieven (2004). Optimización convexa (pdf) . Prensa de la Universidad de Cambridge. ISBN 978-0-521-83378-3. Consultado el 15 de octubre de 2011 .
^Lee, Se Yoon (2021). "Inferencia variacional de ascenso y muestreo de Gibbs: una revisión teórica de conjuntos". Comunicaciones en estadística: teoría y métodos . arXiv : 2008.01006 . doi : 10.1080 / 03610926.2021.1921214 .
^ a bObispo, Christopher M. (2006). "Capítulo 10". Reconocimiento de patrones y aprendizaje automático . Saltador. ISBN 978-0-387-31073-2.
^ Sotirios P. Chatzis, " Máquinas de discriminación de máxima entropía de conmutación infinita de Markov ", Proc. 30th International Conference on Machine Learning (ICML). Journal of Machine Learning Research: Actas de talleres y conferencias, vol. 28, no. 3, págs. 729–737, junio de 2013.
Referencias
enlaces externos
El libro de texto en línea: Teoría de la información, inferencia y algoritmos de aprendizaje , de David JC MacKay, proporciona una introducción a los métodos variacionales (p. 422).
Un tutorial sobre bayes variacionales . Fox, C. y Roberts, S. 2012. Revisión de inteligencia artificial, doi : 10.1007 / s10462-011-9236-8 .
Repositorio Variational-Bayes Repositorio de artículos de investigación, software y enlaces relacionados con el uso de métodos variacionales para el aprendizaje bayesiano aproximado hasta 2003.
Algoritmos variacionales para inferencia bayesiana aproximada , de MJ Beal, incluye comparaciones de EM con EM bayesiana variacional y derivaciones de varios modelos, incluidos los HMM bayesianos variacionales.
Puede que valga la pena leer la Explicación de alto nivel de la inferencia variacional por Jason Eisner antes de un tratamiento más detallado matemáticamente.
Inferencia de Copula Variational Bayes a través de geometría de la información (pdf) por Tran, VH 2018. Este documento está escrito principalmente para estudiantes. A través de la divergencia de Bregman , el artículo muestra que Bayes Variacional es simplemente una proyección pitagórica generalizada del modelo verdadero en un espacio distribucional (cópula) arbitrariamente correlacionado, del cual el espacio independiente es simplemente un caso especial.