De Wikipedia, la enciclopedia libre
Ir a navegaciónSaltar a buscar

En econometría , la prueba de la matriz de información se utiliza para determinar si un modelo de regresión está mal especificado . La prueba fue desarrollada por Halbert White , [1] quien observó que en un modelo correctamente especificado y bajo supuestos de regularidad estándar, la matriz de información de Fisher se puede expresar de dos maneras: como el producto externo del gradiente o como una función. de la matriz de Hesse de la función logarítmica de verosimilitud.

Considere un modelo lineal , donde los errores se supone que están distribuidos . Si los parámetros y están apilados en el vector , la función de probabilidad logarítmica resultante es

La matriz de información se puede expresar como

ese es el valor esperado del producto externo del gradiente o puntuación . En segundo lugar, se puede escribir como el negativo de la matriz hessiana de la función logarítmica de verosimilitud

Si el modelo se especifica correctamente, ambas expresiones deben ser iguales. Combinando las formas equivalentes se obtiene

donde es un matriz aleatoria , dondees el número de parámetros. White demostró que los elementos de, donde es el MLE, se distribuyen asintóticamente normalmente con media cero cuando el modelo está correctamente especificado. [2] Sin embargo, en muestras pequeñas, la prueba generalmente funciona mal. [3]

Referencias

  1. ^ Blanco, Halbert (1982). "Estimación de máxima verosimilitud de modelos mal especificados". Econometrica . 50 (1): 1–25. JSTOR  1912526 .
  2. ^ Godfrey, LG (1988). Pruebas de errores de especificación en econometría . Prensa de la Universidad de Cambridge . págs. 35–37. ISBN 0-521-26616-5.
  3. ^ Orme, Chris (1990). "El rendimiento de muestra pequeña de la prueba de matriz de información". Revista de Econometría . 46 (3): 309–331. doi : 10.1016 / 0304-4076 (90) 90012-I .

Lectura adicional