En la prueba de hipótesis estadística , el exponente de error de un procedimiento de prueba de hipótesis es la tasa a la que las probabilidades de Tipo I y Tipo II disminuyen exponencialmente con el tamaño de la muestra utilizada en la prueba. Por ejemplo, si la probabilidad de error de una prueba decae como , dónde es el tamaño de la muestra, el exponente de error es .
Formalmente, el exponente de error de una prueba se define como el valor límite de la relación entre el logaritmo negativo de la probabilidad de error y el tamaño de la muestra para tamaños de muestra grandes: . Los exponentes de error para diferentes pruebas de hipótesis se calculan utilizando el teorema de Sanov y otros resultados de la teoría de grandes desviaciones .
Exponentes de error en la prueba de hipótesis binarias
Considere un problema de prueba de hipótesis binarias en el que las observaciones se modelan como variables aleatorias independientes e idénticamente distribuidas bajo cada hipótesis. Dejardenotar las observaciones. Dejardenotar la función de densidad de probabilidad de cada observación bajo la hipótesis nula y deja denotar la función de densidad de probabilidad de cada observación bajo la hipótesis alternativa .
En este caso, hay dos posibles eventos de error . El error de tipo 1, también llamado falso positivo , se produce cuando la hipótesis nula es verdadera y se rechaza erróneamente. El error de tipo 2, también llamado falso negativo, ocurre cuando la hipótesis alternativa es verdadera y la hipótesis nula no es rechazada. La probabilidad de error de tipo 1 se indica y la probabilidad de error de tipo 2 se denota .
Exponente de error óptimo para las pruebas de Neyman-Pearson
En la versión Neyman-Pearson [1] de la prueba de hipótesis binarias, uno está interesado en minimizar la probabilidad de error tipo 2 sujeto a la restricción de que la probabilidad de error de tipo 1 es menor o igual a un nivel preestablecido . En este contexto, el procedimiento de prueba óptimo es una prueba de razón de verosimilitud . [2] Además, la prueba óptima garantiza que la probabilidad de error de tipo 2 decae exponencialmente en el tamaño de la muestra. de acuerdo a . [3] El exponente de errores la divergencia de Kullback-Leibler entre las distribuciones de probabilidad de las observaciones bajo las dos hipótesis. Este exponente también se conoce como exponente del lema de Chernoff-Stein.
Exponente de error óptimo para la probabilidad de error promedio en la prueba de hipótesis bayesianas
En la versión bayesiana de la prueba de hipótesis binarias, uno está interesado en minimizar la probabilidad de error promedio bajo ambas hipótesis, asumiendo una probabilidad previa de ocurrencia en cada hipótesis. Dejar denotar la probabilidad previa de hipótesis . En este caso, la probabilidad de error promedio viene dada por. En esta configuración, nuevamente, una prueba de razón de verosimilitud es óptima y el error óptimo decae como dónde representa la información de Chernoff entre las dos distribuciones definidas como . [3]
Referencias
- ^ Neyman, J .; Pearson, ES (1933), "Sobre el problema de las pruebas más eficientes de hipótesis estadísticas" (PDF) , Transacciones filosóficas de la Royal Society of London A , 231 (694–706): 289–337, Bibcode : 1933RSPTA.231 ..289N , doi : 10.1098 / rsta.1933.0009 , JSTOR 91247
- ^ Lehmann, EL ; Romano, Joseph P. (2005). Prueba de hipótesis estadísticas (3 ed.). Nueva York: Springer. ISBN 978-0-387-98864-1.
- ^ a b Portada, Thomas M .; Thomas, Joy A. (2006). Elementos de la teoría de la información (2 ed.). Nueva York: Wiley-Interscience.