En estadística , la normalidad asintótica local es una propiedad de una secuencia de modelos estadísticos , lo que permite que esta secuencia sea aproximada asintóticamente por un modelo de ubicación normal , después de un reescalado del parámetro. Un ejemplo importante cuando se mantiene la normalidad asintótica local es en el caso del muestreo iid de un modelo paramétrico regular .
Le Cam (1960) introdujo la noción de normalidad asintótica local .
Se dice que una secuencia de modelos estadísticos paramétricos { P n, θ : θ ∈ Θ } es localmente asintóticamente normal (LAN) en θ si existen matrices r n e I θ y un vector aleatorio Δ n, θ ~ N (0, I θ ) tal que, para cada secuencia convergente h n → h , [1]
donde la derivada aquí es una derivada de Radon-Nikodym , que es una versión formalizada de la razón de verosimilitud , y donde o es un tipo de O grande en notación de probabilidad . En otras palabras, la razón de verosimilitud local debe converger en la distribución a una variable aleatoria normal cuya media es igual a menos la mitad de la varianza:
Las secuencias de distribuciones y son contiguos . [1]
Ejemplo
El ejemplo más sencillo de un modelo LAN es un modelo iid cuya probabilidad es dos veces diferenciable de forma continua. Suponga que { X 1 , X 2 ,…, X n } es una muestra iid, donde cada X i tiene una función de densidad f ( x , θ ) . La función de verosimilitud del modelo es igual a
Si f es dos veces diferenciable de forma continua en θ , entonces
Conectando , da
Según el teorema del límite central , el primer término (entre paréntesis) converge en distribución a una variable aleatoria normal Δ θ ~ N (0, I θ ) , mientras que según la ley de los números grandes, la expresión entre paréntesis converge en probabilidad a I θ , que es la matriz de información de Fisher :
Por lo tanto, se satisface la definición de normalidad asintótica local, y hemos confirmado que el modelo paramétrico con observaciones iid y dos probabilidades continuamente diferenciables tiene la propiedad LAN.