En estadística , la prueba de Wald (llamada así por Abraham Wald ) evalúa las restricciones de los parámetros estadísticos en función de la distancia ponderada entre la estimación no restringida y su valor hipotético bajo la hipótesis nula , donde la ponderación es la precisión de la estimación. [1] [2] Intuitivamente, cuanto mayor sea esta distancia ponderada, menos probable es que la restricción sea verdadera. Si bien las distribuciones de muestras finitas de las pruebas de Wald generalmente se desconocen, [3] tiene una distribución χ 2 asintóticabajo la hipótesis nula, hecho que puede utilizarse para determinar la significancia estadística . [4]
Junto con el multiplicador de Lagrange y la prueba de razón de verosimilitud , la prueba de Wald es uno de los tres enfoques clásicos para la prueba de hipótesis . Una ventaja de la prueba de Wald sobre las otras dos es que solo requiere la estimación del modelo sin restricciones, lo que reduce la carga computacional en comparación con la prueba de razón de verosimilitud. Sin embargo, una gran desventaja es que (en muestras finitas) no es invariante a los cambios en la representación de la hipótesis nula; en otras palabras, expresiones algebraicamente equivalentes de restricción de parámetros no lineales pueden conducir a diferentes valores del estadístico de prueba. [5] [6] Esto se debe a que el estadístico de Wald se deriva de una expansión de Taylor , [7] y las diferentes formas de escribir expresiones no lineales equivalentes dan lugar a diferencias no triviales en los coeficientes de Taylor correspondientes. [8] Otra aberración, conocida como efecto Hauck-Donner, [9] puede ocurrir en modelos binomiales cuando el parámetro estimado (no restringido) está cerca del límite del espacio de parámetros, por ejemplo, una probabilidad ajustada es extremadamente cercana a cero o uno, que da como resultado que la prueba de Wald ya no aumente de manera monótona en la distancia entre el parámetro restringido y no restringido. [10] [11]
Detalles matemáticos
Bajo la prueba de Wald, el estimado que se encontró cuando el argumento maximizador de la función de verosimilitud no restringida se compara con un valor hipotético. En particular, la diferencia al cuadrado está ponderado por la curvatura de la función logarítmica de verosimilitud.
Prueba en un solo parámetro
Si la hipótesis implica solo una restricción de parámetro, entonces el estadístico de Wald toma la siguiente forma:
que bajo la hipótesis nula sigue una distribución χ 2 asintótica con un grado de libertad. La raíz cuadrada de la de un solo restricción Wald estadística puede ser entendido como un (pseudo) t -ratio que es, sin embargo, en realidad no t -distribuida excepto para el caso especial de regresión lineal con distribuidas normalmente errores. [12] En general, sigue una distribución z asintótica . [13]
dónde es el error estándar de la estimación de máxima verosimilitud (MLE), la raíz cuadrada de la varianza. Hay varias formas de estimar consistentemente la matriz de varianza que en muestras finitas conduce a estimaciones alternativas de errores estándar y estadísticas de prueba asociadas y valores p . [14]
Prueba (s) en múltiples parámetros
La prueba de Wald se puede utilizar para probar una sola hipótesis en múltiples parámetros, así como para probar conjuntamente múltiples hipótesis en uno o varios parámetros. Dejarser nuestro estimador de muestra de parámetros P (es decir, es un vector), que se supone que sigue asintóticamente una distribución normal con matriz de covarianza V ,. La prueba de hipótesis Q sobre los parámetros P se expresa con unmatriz R :
La estadística de prueba es:
dónde es un estimador de la matriz de covarianza. [15]
Suponer . Entonces, por el teorema de Slutsky y por las propiedades de la distribución normal , multiplicar por R tiene distribución:
Recordando que una forma cuadrática de distribución normal tiene una distribución Chi-cuadrado :
Reorganizar n finalmente da:
¿Qué sucede si la matriz de covarianza no se conoce a priori y debe estimarse a partir de los datos? Si tenemos un estimador consistente de , entonces por la independencia del estimador de covarianza y la ecuación anterior, tenemos:
Hipótesis no lineal
En la forma estándar, la prueba de Wald se utiliza para probar hipótesis lineales que pueden ser representados por una sola matriz R . Si se desea probar una hipótesis no lineal de la forma:
La estadística de prueba se convierte en:
dónde es la derivada de c evaluada en el estimador muestral. Este resultado se obtiene mediante el método delta , que utiliza una aproximación de primer orden de la varianza.
No invariancia a las re-parametrizaciones
El hecho de que se utilice una aproximación de la varianza tiene el inconveniente de que el estadístico de Wald no es invariante a una transformación / reparametrización no lineal de la hipótesis: puede dar diferentes respuestas a la misma pregunta, dependiendo de cómo se formule la pregunta. . [16] [5] Por ejemplo, preguntar si R = 1 es lo mismo que preguntar si log R = 0; pero el estadístico de Wald para R = 1 no es el mismo que el estadístico de Wald para log R = 0 (porque en general no existe una relación clara entre los errores estándar de R y log R , por lo que debe aproximarse). [17]
Alternativas a la prueba de Wald
Existen varias alternativas a la prueba de Wald, a saber, la prueba de razón de verosimilitud y la prueba del multiplicador de Lagrange (también conocida como prueba de puntuación). Robert F. Engle demostró que estas tres pruebas, la prueba de Wald, la prueba de razón de verosimilitud y la prueba del multiplicador de Lagrange son asintóticamente equivalentes . [18] Aunque son asintóticamente equivalentes, en muestras finitas, podrían estar lo suficientemente en desacuerdo como para llevar a conclusiones diferentes.
Hay varias razones para preferir la prueba de razón de verosimilitud o el multiplicador de Lagrange a la prueba de Wald: [19] [20] [21]
- No invariancia: Como se discutió anteriormente, la prueba de Wald no es invariante bajo reparametrización, mientras que las pruebas de coeficiente de riesgo se dará exactamente la misma respuesta si trabajamos con R , ingrese R o cualquier otra monótona transformación de R . [5]
- La otra razón es que la prueba de Wald usa dos aproximaciones (que conocemos el error estándar y que la distribución es χ 2 ), mientras que la prueba de razón de verosimilitud usa una aproximación (que la distribución es χ 2 ). [ cita requerida ]
- La prueba de Wald requiere una estimación bajo la hipótesis alternativa, correspondiente al modelo "completo". En algunos casos, el modelo es más simple bajo la hipótesis cero, por lo que se podría preferir utilizar la prueba de puntuación (también llamada prueba del multiplicador de Lagrange), que tiene la ventaja de que se puede formular en situaciones en las que la variabilidad es difícil de estimar; por ejemplo, la prueba de Cochran-Mantel-Haenzel es una prueba de puntuación. [22]
Ver también
- Prueba de comida
- Prueba secuencial de razón de probabilidad
- Prueba de sup-Wald
- Prueba t de estudiante
- Prueba t de Welch
Referencias
- ^ Fahrmeir, Ludwig; Kneib, Thomas; Lang, Stefan; Marx, Brian (2013). Regresión: modelos, métodos y aplicaciones . Berlín: Springer. pag. 663. ISBN 978-3-642-34332-2.
- ^ Ward, Michael D .; Ahlquist, John S. (2018). Máxima probabilidad para las ciencias sociales: estrategias para el análisis . Prensa de la Universidad de Cambridge . pag. 36. ISBN 978-1-316-63682-4.
- ^ Martin, Vance; Hurn, Stan; Harris, David (2013). Modelización econométrica con series de tiempo: especificación, estimación y pruebas . Prensa de la Universidad de Cambridge. pag. 138. ISBN 978-0-521-13981-6.
- ^ Davidson, Russell; MacKinnon, James G. (1993). "El método de máxima verosimilitud: conceptos fundamentales y notación". Estimación e inferencia en econometría . Nueva York: Oxford University Press. pag. 89. ISBN 0-19-506011-3.
- ^ a b c Gregory, Allan W .; Veall, Michael R. (1985). "Formulación de pruebas de Wald de restricciones no lineales" . Econometrica . 53 (6): 1465-1468. JSTOR 1913221 .
- ^ Phillips, PCB ; Park, Joon Y. (1988). "Sobre la formulación de pruebas de Wald de restricciones no lineales". Econometrica . 56 (5): 1065–1083. JSTOR 1911359 .
- ^ Hayashi, Fumio (2000). Econometría . Princeton: Prensa de la Universidad de Princeton. págs. 489–491. ISBN 1-4008-2383-8.,
- ^ Lafontaine, Francine; White, Kenneth J. (1986). "Obtención de cualquier estadística de Wald que desee". Cartas económicas . 21 (1): 35–40. doi : 10.1016 / 0165-1765 (86) 90117-5 .
- ^ Hauck, Walter W., Jr .; Donner, Allan (1977). "Prueba de Wald aplicada a hipótesis en análisis logit". Revista de la Asociación Estadounidense de Estadística . 72 (360a): 851–853. doi : 10.1080 / 01621459.1977.10479969 .
- ^ King, Maxwell L .; Goh, Kim-Leng (2002). "Mejoras en la prueba de Wald" . Manual de Econometría Aplicada e Inferencia Estadística . Nueva York: Marcel Dekker. págs. 251-276. ISBN 0-8247-0652-8.
- ^ Yee, Thomas William (2020). "Sobre el efecto Hauck-Donner en las pruebas de Wald: detección, puntos de inflexión y caracterización del espacio de parámetros". arXiv : 2001.08431 . Cite journal requiere
|journal=
( ayuda ) - ^ Cameron, A. Colin ; Trivedi, Pravin K. (2005). Microeconometría: métodos y aplicaciones . Nueva York: Cambridge University Press. pag. 137. ISBN 0-521-84805-9.
- ^ Davidson, Russell; MacKinnon, James G. (1993). "El método de máxima verosimilitud: conceptos fundamentales y notación". Estimación e inferencia en econometría . Nueva York: Oxford University Press. pag. 89. ISBN 0-19-506011-3.
- ^ Martin, Vance; Hurn, Stan; Harris, David (2013). Modelización econométrica con series de tiempo: especificación, estimación y pruebas . Nueva York: Cambridge University Press. pag. 129. ISBN 978-0-521-13981-6.
- ^ Harrell, Frank E., Jr. (2001). "Sección 9.3.1". Estrategias de modelado de regresión . Nueva York: Springer-Verlag. ISBN 0387952322.
- ^ Miedos, Thomas R .; Benichou, Jacques; Gail, Mitchell H. (1996). "Un recordatorio de la falibilidad de la estadística de Wald". El estadístico estadounidense . 50 (3): 226–227. doi : 10.1080 / 00031305.1996.10474384 .
- ^ Critchley, Frank; Marriott, Paul; Salmón, Mark (1996). "Sobre la geometría diferencial de la prueba de Wald con restricciones no lineales". Econometrica . 64 (5): 1213-1222. JSTOR 2171963 .
- ^ Engle, Robert F. (1983). "Wald, razón de verosimilitud y pruebas de multiplicador de Lagrange en econometría". En Intriligator, MD; Griliches, Z. (eds.). Manual de Econometría . II . Elsevier. págs. 796–801. ISBN 978-0-444-86185-6.
- ^ Harrell, Frank E., Jr. (2001). "Sección 9.3.3". Estrategias de modelado de regresión . Nueva York: Springer-Verlag. ISBN 0387952322.
- ^ Collett, David (1994). Modelado de datos de supervivencia en la investigación médica . Londres: Chapman & Hall. ISBN 0412448807.
- ^ Pawitan, Yudi (2001). Con toda probabilidad . Nueva York: Oxford University Press. ISBN 0198507658.
- ^ Agresti, Alan (2002). Análisis de datos categóricos (2ª ed.). Wiley. pag. 232 . ISBN 0471360937.
Otras lecturas
- Greene, William H. (2012). Análisis econométrico (Séptima ed. Internacional). Boston: Pearson. pp. 155 -161. ISBN 978-0-273-75356-8.
- Kmenta, Jan (1986). Elements of Econometrics (Segunda ed.). Nueva York: Macmillan. págs. 492–493 . ISBN 0-02-365070-2.
- Thomas, RL (1993). Econometría introductoria: teoría y aplicación (Segunda ed.). Londres: Longman. págs. 73–77. ISBN 0-582-07378-2.
enlaces externos
- Prueba de Wald sobre los primeros usos conocidos de algunas de las palabras de las matemáticas