En física computacional y estadística , el algoritmo Hamiltoniano Monte Carlo (también conocido como Monte Carlo híbrido ), es un método Monte Carlo de cadena de Markov para obtener una secuencia de muestras aleatorias que convergen para distribuirse de acuerdo con una distribución de probabilidad objetivo para la que se realiza un muestreo directo. difícil. Esta secuencia se puede utilizar para estimar integrales con respecto a la distribución objetivo ( valores esperados ).
El Hamiltoniano Monte Carlo corresponde a una instancia del algoritmo Metropolis-Hastings , con una evolución dinámica hamiltoniana simulada utilizando un integrador numérico reversible en el tiempo y preservador del volumen (típicamente el integrador de salto ) para proponer un movimiento a un nuevo punto en el espacio de estados. En comparación con el uso de una distribución de propuesta de caminata aleatoria gaussiana en el algoritmo Metropolis-Hastings , el Hamiltoniano Monte Carlo reduce la correlación entre estados muestreados sucesivos al proponer movimientos a estados distantes que mantienen una alta probabilidad de aceptación debido a las propiedades de conservación de energía aproximadas del hamiltoniano simulado. dinámico cuando se utiliza unintegrador simpléctico . La correlación reducida significa que se necesitan menos muestras de cadenas de Markov para aproximar integrales con respecto a la distribución de probabilidad objetivo para un error de Monte Carlo dado . El algoritmo fue propuesto originalmente por Simon Duane, Anthony Kennedy, Brian Pendleton y Duncan Roweth en 1987 [1] para cálculos en cromodinámica cuántica de celosía .
Algoritmo
Suponga que la distribución objetivo para muestrear es y una cadena de muestras se requiere. Las ecuaciones de Hamilton son
y
dónde y son los th componente del vector de posición y momento respectivamente yes el hamiltoniano. Dejarser una matriz de masa que es simétrica y definida positiva, entonces el hamiltoniano es
dónde es la energía potencial . La energía potencial para un objetivo se da como
que proviene del factor de Boltzmann .
El algoritmo requiere un número entero positivo para el número de pasos de salto de rana. y un número positivo para el tamaño del paso . Suponga que la cadena está en. Dejar. Primero, un impulso gaussiano aleatorio se extrae de . A continuación, la partícula se ejecutará bajo la dinámica hamiltoniana durante un tiempo., esto se hace resolviendo las ecuaciones de Hamilton numéricamente usando el algoritmo de salto de rana . Los vectores de posición e impulso después del tiempo utilizando el algoritmo de salto de rana son
Estas ecuaciones deben aplicarse a y tiempos para obtener y .
Debido a que el algoritmo de salto de rana es un método numérico y no resuelve exactamente las ecuaciones de Hamilton, se usa un paso de Metropolis-Hastings . La transición de a es
dónde
Esto se repite para obtener .
Muestreador sin cambio de sentido
El muestreador sin giro en U (NUTS) [2] es una extensión al controlarautomáticamente. Afinaciónes critico. Por ejemplo en el unidimensional caso, el potencial es que corresponde al potencial de un oscilador armónico simple . Parademasiado grande, la partícula oscilará y esto desperdiciará tiempo de cálculo. Para demasiado pequeña, la partícula se comportará como un paseo aleatorio.
De manera flexible, NUTS ejecuta la dinámica hamiltoniana tanto hacia adelante como hacia atrás en el tiempo de forma aleatoria hasta que se cumple una condición de U-Turn. Cuando eso sucede, se elige un punto aleatorio de la ruta para la muestra de MCMC y el proceso se repite desde ese nuevo punto.
En detalle, se construye un árbol binario para trazar el camino de los pasos de salto de rana. Para producir una muestra de MCMC, se lleva a cabo un procedimiento iterativo. Una variable de cortese muestrea. Dejar y ser la posición y el impulso de la partícula hacia adelante, respectivamente. Similar, y para la partícula hacia atrás. En cada iteración, el árbol binario selecciona al azar de manera uniforme para mover la partícula hacia adelante hacia adelante en el tiempo o la partícula hacia atrás hacia atrás en el tiempo. También para cada iteración, el número de pasos de salto de rana aumenta en un factor de 2. Por ejemplo, en la primera iteración, la partícula hacia adelante se mueve hacia adelante en el tiempo usando 1 paso de salto de rana. En la siguiente iteración, la partícula hacia atrás se mueve hacia atrás en el tiempo usando 2 pasos de salto de rana.
El procedimiento iterativo continúa hasta que se cumple la condición de cambio de sentido, es decir
o cuando el hamiltoniano se vuelve inexacto
o
donde, por ejemplo, .
Una vez que se cumple la condición de cambio de sentido, la siguiente muestra de MCMC, , se obtiene muestreando uniformemente la trayectoria de la rana de salto trazada por el árbol binario que satisface
Por lo general, esto se cumple si los parámetros restantes de la HMC son razonables.
Ver también
Referencias
- ^ Duane, Simon; Kennedy, Anthony D .; Pendleton, Brian J .; Roweth, Duncan (3 de septiembre de 1987). "Montecarlo híbrido". Physics Letters B . 195 (2): 216–222. Código Bibliográfico : 1987PhLB..195..216D . doi : 10.1016 / 0370-2693 (87) 91197-X .
- ^ Hoffman, Matthew D; Gelman, Andrew (2014). "El muestreador sin vuelta en U: ajuste adaptativo longitudes de ruta en Hamiltonian Monte Carlo". Revista de investigación sobre aprendizaje automático . 15 (1): 1593-1623.
Otras lecturas
- Neal, Radford M (2011). "MCMC utilizando la dinámica de Hamilton" (PDF) . En Steve Brooks; Andrew Gelman; Galin L. Jones; Xiao-Li Meng (eds.). Manual de Markov Chain Monte Carlo . Chapman y Hall / CRC. ISBN 9781420079418.
- Betancourt, Michael (2018). "Una introducción conceptual al Montecarlo hamiltoniano". arXiv : 1701.02434 . Código bibliográfico : 2017arXiv170102434B . Cite journal requiere
|journal=
( ayuda ) - Liu, junio S. (2004). Estrategias de Monte Carlo en Computación Científica . Springer Series en Estadísticas, Springer. págs. 189-203. ISBN 978-0-387-76369-9 .
enlaces externos
- Betancourt, Michael. "Inferencia bayesiana eficiente con Hamiltonian Monte Carlo" . MLSS Islandia 2014 - a través de YouTube .
- Hamiltonian Montecarlo desde cero
- Métodos de optimización y Monte Carlo