En estadística , la información observada , o la información de Fisher observada , es el negativo de la segunda derivada (la matriz de Hesse ) del " logaritmo de verosimilitud " (el logaritmo de la función de verosimilitud ). Es una versión basada en muestras de la información de Fisher .
Definición
Supongamos que observamos variables aleatorias , independientes e idénticamente distribuidos con densidad f ( X ; θ), donde θ es un vector (posiblemente desconocido). Entonces, la probabilidad logarítmica de los parámetros dados los datos es
- .
Definimos la matriz de información observada en como
En muchos casos, la información observada se evalúa en la estimación de máxima verosimilitud . [1]
Información de Fisher
La información de Fisher es el valor esperado de la información observada dada una sola observación distribuido según el modelo hipotético con parámetro :
- .
Aplicaciones
En un artículo notable, Bradley Efron y David V. Hinkley [2] argumentaron que la información observada debe usarse con preferencia a la información esperada cuando se emplean aproximaciones normales para la distribución de estimaciones de máxima verosimilitud .
Ver también
Referencias
- ^ Dodge, Y. (2003) El diccionario de términos estadísticos de Oxford , OUP. ISBN 0-19-920613-9
- ^ Efron, B .; Hinkley, DV (1978). "Evaluación de la precisión del estimador de máxima verosimilitud: información de Fisher observada frente a esperada". Biometrika . 65 (3): 457–487. doi : 10.1093 / biomet / 65.3.457 . JSTOR 2335893 . Señor 0521817 .