Información observada


En estadística , la información observada , o información de Fisher observada , es el negativo de la segunda derivada (la matriz Hessiana ) del " log-verosimilitud " (el logaritmo de la función de verosimilitud ). Es una versión basada en muestras de la información de Fisher .

Supongamos que observamos variables aleatorias , independientes e idénticamente distribuidas con densidad f ( X ; θ), donde θ es un vector (posiblemente desconocido). Entonces, la log-verosimilitud de los parámetros dados los datos es

Definimos la matriz de información observada en como

Andrew Gelman , David Dunson y Donald Rubin [2] definen la información observada en términos de la probabilidad posterior de los parámetros :

La información de Fisher es el valor esperado de la información observada dada una sola observación distribuida de acuerdo con el modelo hipotético con parámetro :