En estadística , la prueba de puntuación evalúa las restricciones de los parámetros estadísticos basándose en el gradiente de la función de verosimilitud, conocida como puntuación, evaluada en el valor del parámetro hipotético bajo la hipótesis nula . Intuitivamente, si el estimador restringido está cerca del máximo de la función de verosimilitud, la puntuación no debería diferir de cero en más que el error de muestreo . Mientras que las distribuciones de muestras finitas de puntuación de las pruebas son generalmente desconocido, tiene una asintótica χ 2 -Distribuciónbajo la hipótesis nula, probada por primera vez por CR Rao en 1948, [1] un hecho que puede utilizarse para determinar la significación estadística .
Dado que la maximización de funciones sujeta a restricciones de igualdad se realiza de manera más conveniente utilizando una expresión de Lagrange del problema, la prueba de puntuación puede entenderse de manera equivalente como una prueba de la magnitud de los multiplicadores de Lagrange asociados con las restricciones donde, nuevamente, si las restricciones no son: vinculante a la máxima verosimilitud, el vector de los multiplicadores de Lagrange no debe diferir de cero en más de un error de muestreo. La equivalencia de estos dos enfoques fue demostrada por primera vez por SD Silvey en 1959, [2] lo que dio lugar al nombre de prueba del multiplicador de Lagrange que se ha vuelto más comúnmente utilizado, particularmente en econometría, desde el muy citado artículo de 1980 de Breusch y Pagan . [3]
La principal ventaja de la prueba de puntuación sobre la prueba de Wald y la prueba de razón de verosimilitud es que la prueba de puntuación solo requiere el cálculo del estimador restringido. [4] Esto hace que las pruebas sean factibles cuando la estimación de máxima verosimilitud sin restricciones es un punto límite en el espacio de parámetros . [ cita requerida ] Además, debido a que la prueba de puntuación solo requiere la estimación de la función de verosimilitud bajo la hipótesis nula, es menos específica que las otras dos pruebas sobre la naturaleza precisa de la hipótesis alternativa. [5]
Prueba de un solo parámetro
La estadística
Dejar ser la función de verosimilitud que depende de un parámetro univariante y deja ser los datos. El marcador Se define como
La información de Fisher es [6]
La estadística para probar es
que tiene una distribución asintótica de, Cuándo es verdad. Si bien es asintóticamente idéntico, calcular el estadístico LM utilizando el estimador de producto de gradiente externo de la matriz de información de Fisher puede generar sesgos en muestras pequeñas. [7]
Nota sobre notación
Tenga en cuenta que algunos textos utilizan una notación alternativa, en la que la estadística se prueba con una distribución normal. Este enfoque es equivalente y da resultados idénticos.
Como prueba más poderosa para pequeñas desviaciones.
dónde es la función de verosimilitud , es el valor del parámetro de interés bajo la hipótesis nula, y es un conjunto constante que depende del tamaño de la prueba deseada (es decir, la probabilidad de rechazar Si es verdad; ver error de tipo I ).
La prueba de puntuación es la prueba más poderosa para pequeñas desviaciones de . Para ver esto, considere probar versus . Según el lema de Neyman-Pearson , la prueba más poderosa tiene la forma
Tomando el logaritmo de ambos lados se obtiene
La prueba de puntuación sigue haciendo la sustitución (por expansión de la serie de Taylor )
e identificando el arriba con .
Relación con otras pruebas de hipótesis
Si la hipótesis nula es verdadera, la prueba de razón de verosimilitud , la prueba de Wald y la prueba de puntuación son pruebas de hipótesis asintóticamente equivalentes. [8] [9] Cuando se prueban modelos anidados , las estadísticas para cada prueba luego convergen a una distribución Chi-cuadrado con grados de libertad iguales a la diferencia en grados de libertad en los dos modelos. Sin embargo, si la hipótesis nula no es cierta, las estadísticas convergen en una distribución chi-cuadrado no central con parámetros posiblemente diferentes de no centralidad.
Múltiples parámetros
Se puede obtener una prueba de puntuación más general cuando hay más de un parámetro. Suponer quees la estimación de máxima verosimilitud de bajo la hipótesis nula tiempo y son, respectivamente, la puntuación y las matrices de información de Fisher bajo la hipótesis alternativa. Luego
asintóticamente bajo , dónde es el número de restricciones impuestas por la hipótesis nula y
y
Esto se puede utilizar para probar .
Casos especiales
En muchas situaciones, la estadística de puntuación se reduce a otra estadística de uso común. [10]
En la regresión lineal , la prueba multiplicador de Lagrange se puede expresar como una función de la F -test . [11]
Cuando los datos siguen una distribución normal, el estadístico de puntuación es el mismo que el estadístico t . [ aclaración necesaria ]
Cuando los datos consisten en observaciones binarias, la estadística de puntuación es la misma que la estadística de chi-cuadrado en la prueba de chi-cuadrado de Pearson .
Cuando los datos consisten en datos de tiempo de falla en dos grupos, la estadística de puntuación para la probabilidad parcial de Cox es la misma que la estadística de rango logarítmico en la prueba de rango logarítmico . Por lo tanto, la prueba de rango logarítmico para la diferencia en la supervivencia entre dos grupos es más poderosa cuando se cumple el supuesto de riesgos proporcionales.
Ver también
- Información de Fisher
- Prueba uniformemente más potente
- Puntuación (estadísticas)
- Prueba sup-LM
Referencias
- ^ Rao, C. Radhakrishna (1948). "Ensayos de gran muestra de hipótesis estadísticas relativas a varios parámetros con aplicaciones a problemas de estimación". Procedimientos matemáticos de la Sociedad Filosófica de Cambridge . 44 (1): 50–57. doi : 10.1017 / S0305004100023987 .
- ^ Silvey, SD (1959). "La prueba del multiplicador de Lagrange" . Anales de estadística matemática . 30 (2): 389–407. doi : 10.1214 / aoms / 1177706259 . JSTOR 2237089 .
- ^ Breusch, TS ; Pagan, AR (1980). "La prueba del multiplicador de Lagrange y sus aplicaciones a la especificación de modelos en econometría". Revisión de estudios económicos . 47 (1): 239-253. JSTOR 2297111 .
- ^ Fahrmeir, Ludwig; Kneib, Thomas; Lang, Stefan; Marx, Brian (2013). Regresión: modelos, métodos y aplicaciones . Berlín: Springer. págs. 663 –664. ISBN 978-3-642-34332-2.
- ^ Kennedy, Peter (1998). A Guide to Econometrics (Cuarta ed.). Cambridge: MIT Press. pag. 68. ISBN 0-262-11235-3.
- ^ Lehmann y Casella, eq. (2.5.16).
- ^ Davidson, Russel; MacKinnon, James G. (1983). "Propiedades de muestra pequeña de formas alternativas de la prueba del multiplicador de Lagrange". Cartas económicas . 12 (3–4): 269–275. doi : 10.1016 / 0165-1765 (83) 90048-4 .
- ^ Engle, Robert F. (1983). "Wald, razón de verosimilitud y pruebas de multiplicador de Lagrange en econometría". En Intriligator, MD; Griliches, Z. (eds.). Manual de Econometría . II . Elsevier. págs. 796–801. ISBN 978-0-444-86185-6.
- ^ Burzykowski, Andrzej Gałecki, Tomasz (2013). Modelos lineales de efectos mixtos que utilizan R: un enfoque paso a paso . Nueva York, NY: Springer. ISBN 1461438993.
- ^ Cook, TD; DeMets, DL, eds. (2007). Introducción a los métodos estadísticos para ensayos clínicos . Chapman y Hall. págs. 296-297. ISBN 1-58488-027-9.
- ^ Vandaele, Walter (1981). "Pruebas de Wald, razón de verosimilitud y multiplicador de Lagrange como una prueba F". Cartas económicas . 8 (4): 361–365. doi : 10.1016 / 0165-1765 (81) 90026-4 .
Otras lecturas
- Buse, A. (1982). "La razón de verosimilitud, Wald y pruebas de multiplicador de Lagrange: una nota expositiva". El estadístico estadounidense . 36 (3a): 153-157. doi : 10.1080 / 00031305.1982.10482817 .
- Godfrey, LG (1988). "La prueba del multiplicador de Lagrange y la prueba de especificación incorrecta: un análisis extendido". Pruebas de errores de especificación en econometría . Nueva York: Cambridge University Press. págs. 69–99. ISBN 0-521-26616-5.
- Rao, CR (2005). "Prueba de puntuación: revisión histórica y desarrollos recientes". Avances en clasificación y selección, comparaciones múltiples y confiabilidad . Boston: Birkhäuser. págs. 3-20. ISBN 978-0-8176-3232-8.