Prueba de Wald


En estadística , la prueba de Wald (que lleva el nombre de Abraham Wald ) evalúa las restricciones de los parámetros estadísticos en función de la distancia ponderada entre la estimación no restringida y su valor hipotético bajo la hipótesis nula , donde la ponderación es la precisión de la estimación. [1] [2] Intuitivamente, cuanto mayor sea esta distancia ponderada, menos probable es que la restricción sea verdadera. Si bien las distribuciones de muestras finitas de las pruebas de Wald generalmente se desconocen, [3] tiene una distribución asintótica χ 2bajo la hipótesis nula, hecho que puede utilizarse para determinar la significancia estadística . [4]

Junto con la prueba del multiplicador de Lagrange y la prueba de razón de verosimilitud , la prueba de Wald es uno de los tres enfoques clásicos para la prueba de hipótesis . Una ventaja de la prueba de Wald sobre las otras dos es que solo requiere la estimación del modelo sin restricciones, lo que reduce la carga computacional en comparación con la prueba de razón de verosimilitud. Sin embargo, una gran desventaja es que (en muestras finitas) no es invariante a los cambios en la representación de la hipótesis nula; en otras palabras, expresiones algebraicamente equivalentes de restricción de parámetros no lineales pueden conducir a diferentes valores del estadístico de prueba. [5] [6]Esto se debe a que el estadístico de Wald se deriva de una expansión de Taylor , [7] y las diferentes formas de escribir expresiones no lineales equivalentes dan lugar a diferencias no triviales en los coeficientes de Taylor correspondientes. [8] Otra aberración, conocida como efecto Hauck-Donner, [9] puede ocurrir en modelos binomiales cuando el parámetro estimado (no restringido) está cerca del límite del espacio de parámetros, por ejemplo, una probabilidad ajustada es extremadamente cercana a cero o uno, lo que da como resultado que la prueba de Wald ya no aumente de manera monótona en la distancia entre el parámetro restringido y no restringido. [10] [11]

Bajo la prueba de Wald, el estimado que se encontró como el argumento maximizador de la función de verosimilitud no restringida se compara con un valor hipotético . En particular, la diferencia al cuadrado se pondera por la curvatura de la función logarítmica de verosimilitud.

Si la hipótesis implica solo una restricción de parámetro, entonces el estadístico de Wald toma la siguiente forma:

que bajo la hipótesis nula sigue una distribución χ 2 asintótica con un grado de libertad. La raíz cuadrada de la de un solo restricción Wald estadística puede ser entendido como un (pseudo) t -ratio que es, sin embargo, en realidad no t -distribuida excepto para el caso especial de regresión lineal con distribuidas normalmente errores. [12] En general, sigue una distribución z asintótica . [13]

donde es el error estándar de la estimación de máxima verosimilitud (MLE), la raíz cuadrada de la varianza. Hay varias formas de estimar consistentemente la matriz de varianza que en muestras finitas conduce a estimaciones alternativas de errores estándar y estadísticas de prueba asociadas y valores p . [14]