En la teoría matemática de los procesos aleatorios , el teorema del límite central de la cadena de Markov tiene una conclusión algo similar en forma a la del teorema del límite central clásico (CLT) de la teoría de la probabilidad, pero la cantidad en el papel que desempeña la varianza en el CLT clásico tiene una definición más complicada.
Declaración
Suponer que:
- la secuencia de elementos aleatorios de algún conjunto es una cadena de Markov que tiene una distribución de probabilidad estacionaria ; y
- la distribución inicial del proceso, es decir, la distribución de , es la distribución estacionaria, de modo que están distribuidos de forma idéntica. En el teorema clásico del límite central se supondría que estas variables aleatorias son independientes , pero aquí sólo tenemos el supuesto más débil de que el proceso tiene la propiedad de Markov ; y
- es alguna función de valor real (medible) para la cual
Ahora deja
Entonces como tenemos [1]
o más precisamente,
donde la flecha decorada indica convergencia en la distribución .
Entorno de Montecarlo
El teorema del límite central de la cadena de Markov se puede garantizar para los funcionales de las cadenas de Markov del espacio de estado general bajo ciertas condiciones. En particular, esto se puede hacer con un enfoque en la configuración de Monte Carlo. Un ejemplo de la aplicación en un entorno MCMC (Markov Chain Monte Carlo) es el siguiente:
Considere un modelo simple de caparazón duro (también conocido como núcleo duro). Suponga que X = {1,. . . , n 1} × {1,. . . , n 2} ⊆ Z 2. Una configuración adecuada en X consiste en colorear cada punto en blanco o negro de tal manera que no haya dos puntos adyacentes que sean blancos. Sea X el conjunto de todas las configuraciones adecuadas en X, NX (n 1, n 2) sea el número total de configuraciones adecuadas y π sea la distribución uniforme en X de modo que cada configuración adecuada sea igualmente probable. Supongamos que nuestro objetivo es calcular el número típico de puntos blancos en una configuración adecuada; es decir, si W (x) es el número de puntos blancos en x ∈ X entonces queremos el valor de
Si n1 y n2 son incluso moderadamente grandes, tendremos que recurrir a una aproximación a E π W. Considere la siguiente cadena de Markov en X. Fije p ∈ (0, 1) y establezca X 0 = x 0 donde x 0 ∈ X es una configuración adecuada arbitraria. Elija aleatoriamente un punto (x, y) ∈ X y dibuje independientemente U ∼ Uniforme (0, 1). Si u ≤ py todos los puntos adyacentes son negros, entonces el color (x, y) es blanco dejando todos los demás puntos solos. De lo contrario, coloree (x, y) negro y deje todos los demás puntos en paz. Llame a la configuración resultante X 1. Continuar de esta manera produce una cadena de Markov ergódica de Harris {X_0, X_1, X_2,. . .} teniendo π como su distribución invariante. Ahora es muy sencillo estimar E π W con w̄ n. Además, dado que X es finito (aunque potencialmente grande), es bien sabido que X convergerá exponencialmente rápido a π, lo que implica que un CLT es válido para w̄ n.
Referencias
- ^ Geyer, Charles J. (2011). Introducción a Markov Chain Monte Carlo. En el Manual de MarkovChain Monte Carlo . Editado por SP Brooks, AE Gelman, GL Jones y XL Meng. Chapman & Hall / CRC, Boca Raton, FL, Sección 1.8. http://www.mcmchandbook.net/HandbookChapter1.pdf
Fuentes
- Gordin, MI y Lifšic, BA (1978). "Teorema del límite central para procesos de Markov estacionarios". Matemáticas soviéticas, Doklady , 19 , 392–394. (Traducción al inglés del original ruso).
- Geyer, Charles J. (2011). "Introducción a MCMC". En Handbook of Markov Chain Monte Carlo , editado por SP Brooks, AE Gelman, GL Jones y XL Meng. Chapman y Hall / CRC, Boca Raton, págs. 3–48.