La prueba de Anderson-Darling es una prueba estadística de si una muestra dada de datos se extrae de una distribución de probabilidad dada . En su forma básica, la prueba asume que no hay parámetros para estimar en la distribución que se está probando, en cuyo caso la prueba y su conjunto de valores críticos están libres de distribución. Sin embargo, la prueba se usa con mayor frecuencia en contextos donde se está probando una familia de distribuciones, en cuyo caso los parámetros de esa familia deben estimarse y debe tenerse en cuenta esto al ajustar el estadístico de prueba o sus valores críticos. Cuando se aplica para probar si una distribución normaldescribe adecuadamente un conjunto de datos, es una de las herramientas estadísticas más poderosas para detectar la mayoría de las desviaciones de la normalidad . [1] [2] Las pruebas de Anderson-Darling de K -muestra están disponibles para probar si varias colecciones de observaciones pueden modelarse como provenientes de una sola población, donde no es necesario especificar la función de distribución .
Además de su uso como prueba de ajuste para distribuciones, puede usarse en la estimación de parámetros como base para una forma de procedimiento de estimación de distancia mínima .
La prueba lleva el nombre de Theodore Wilbur Anderson (1918-2016) y Donald A. Darling (1915-2014), quien la inventó en 1952. [3]
La prueba de una sola muestra
Los estadísticos de Anderson-Darling y Cramér-von Mises pertenecen a la clase de estadísticos EDF cuadráticos (pruebas basadas en la función de distribución empírica ). [2] Si la distribución hipotética es, y la función de distribución acumulativa empírica (muestra) es , las estadísticas cuadráticas de EDF miden la distancia entre y por
dónde es el número de elementos de la muestra, y es una función de ponderación. Cuando la función de ponderación es, el estadístico es el estadístico de Cramér-von Mises . La prueba de Anderson-Darling (1954) [4] se basa en la distancia
que se obtiene cuando la función de peso es . Por lo tanto, en comparación con la distancia de Cramér-von Mises , la distancia de Anderson-Darling otorga más peso a las observaciones en las colas de la distribución.
Estadística de prueba básica
La prueba de Anderson-Darling evalúa si una muestra proviene de una distribución específica. Hace uso del hecho de que, cuando se da una distribución subyacente hipotética y suponiendo que los datos surgen de esta distribución, se puede suponer que la función de distribución acumulada (CDF) de los datos sigue una distribución uniforme . A continuación, se puede comprobar la uniformidad de los datos con una prueba de distancia (Shapiro 1980). La fórmula para la estadística de prueba para evaluar si los datos (tenga en cuenta que los datos deben ponerse en orden) proviene de un CDF es
dónde
A continuación, la estadística de prueba se puede comparar con los valores críticos de la distribución teórica. Tenga en cuenta que en este caso no se estiman parámetros en relación con la función de distribución acumulada.
Pruebas para familias de distribuciones
Esencialmente, el mismo estadístico de prueba puede usarse en la prueba de ajuste de una familia de distribuciones, pero luego debe compararse con los valores críticos apropiados para esa familia de distribuciones teóricas y dependiendo también del método usado para la estimación de parámetros.
Prueba de normalidad
Las pruebas empíricas han encontrado [5] que la prueba de Anderson-Darling no es tan buena como la prueba de Shapiro-Wilk , pero es mejor que otras pruebas. Stephens [1] encontradoser una de las mejores estadísticas de función de distribución empírica para detectar la mayoría de las desviaciones de la normalidad.
El cálculo difiere según lo que se conoce sobre la distribución: [6]
- Caso 0: La media y la varianza ambos son conocidos.
- Caso 1: La varianza es conocido, pero la media es desconocido.
- Caso 2: La media se conoce, pero la varianza es desconocido.
- Caso 3: Tanto la media y la varianza son desconocidos.
Las n observaciones,, por , de la variable debe ser clasificado de tal manera que y la notación a continuación supone que X i representa las observaciones ordenadas. Dejar
Los valores están estandarizados para crear nuevos valores , dada por
Con el CDF normal estándar , se calcula usando
Una expresión alternativa en la que solo se trata una única observación en cada paso de la suma es:
Una estadística modificada se puede calcular usando
Si o excede un valor crítico dado, entonces la hipótesis de normalidad es rechazada con algún nivel de significancia. Los valores críticos se dan en la siguiente tabla para valores de. [1] [7]
Nota 1: Si = 0 o cualquiera (0 o 1) entonces no se puede calcular y no está definido.
Nota 2: La fórmula de ajuste anterior se tomó de Shorack & Wellner (1986, p239). Se requiere cuidado en las comparaciones entre diferentes fuentes, ya que a menudo no se indica la fórmula de ajuste específica.
Nota 3: Stephens [1] señala que la prueba mejora cuando los parámetros se calculan a partir de los datos, incluso si se conocen.
Nota 4: Marsaglia y Marsaglia [7] proporcionan un resultado más preciso para el Caso 0 al 85% y 99%.
Caso | norte | 15% | 10% | 5% | 2,5% | 1% |
---|---|---|---|---|---|---|
0 | 1.621 | 1.933 | 2.492 | 3.070 | 3.878 | |
1 | 0,908 | 1.105 | 1.304 | 1.573 | ||
2 | 1.760 | 2.323 | 2.904 | 3.690 | ||
3 | 10 | 0.514 | 0.578 | 0,683 | 0,779 | 0,926 |
20 | 0.528 | 0.591 | 0,704 | 0,815 | 0,969 | |
50 | 0.546 | 0,616 | 0,735 | 0,861 | 1.021 | |
100 | 0.559 | 0,631 | 0,754 | 0,884 | 1.047 | |
0.576 | 0,656 | 0,787 | 0,918 | 1.092 |
Alternativamente, para el caso 3 anterior (tanto la media como la varianza desconocidas), D'Agostino (1986) [6] en la Tabla 4.7 en la p. 123 y en las páginas 372 a 373 proporciona la estadística ajustada:
y se rechaza la normalidad si supera 0,631, 0,752, 0,873, 1,035 o 1,159 a niveles de significación del 10%, 5%, 2,5%, 1% y 0,5%, respectivamente; el procedimiento es válido para un tamaño de muestra de al menos n = 8. Las fórmulas para calcular los valores p para otros valores dese dan en la Tabla 4.9 en la p. 127 en el mismo libro.
Pruebas para otras distribuciones
Arriba, se asumió que la variable se estaba probando para una distribución normal. Se puede probar cualquier otra familia de distribuciones, pero la prueba para cada familia se implementa utilizando una modificación diferente del estadístico de prueba básico y esto se refiere a los valores críticos específicos de esa familia de distribuciones. Stephens (1986) [2] proporciona las modificaciones de la estadística y las tablas de valores críticos para las distribuciones exponencial, de valor extremo, de Weibull, gamma, logística, de Cauchy y de von Mises. Las pruebas para la distribución log-normal (de dos parámetros) se pueden implementar transformando los datos usando un logaritmo y usando la prueba anterior de normalidad. Pearson y Hartley (1972, cuadro 54) publicaron detalles de las modificaciones necesarias del estadístico de prueba y de los valores críticos para la distribución normal y la distribución exponencial . Los detalles de estas distribuciones, con la adición de la distribución de Gumbel , también son proporcionados por Shorack y Wellner (1986, p239). Stephens (1979) proporciona detalles de la distribución logística . Se puede obtener una prueba para la distribución de Weibull (de dos parámetros) haciendo uso del hecho de que el logaritmo de una variante de Weibull tiene una distribución de Gumbel .
Pruebas de muestras k no paramétricas
Fritz Scholz y Michael A. Stephens (1987) discuten una prueba, basada en la medida de Anderson-Darling de concordancia entre distribuciones, para determinar si un número de muestras aleatorias con tamaños de muestra posiblemente diferentes pueden haber surgido de la misma distribución, donde esta distribución es sin especificar. [8] El paquete R kSamples implementa esta prueba de rango para comparar k muestras entre varias otras pruebas de rango. [9]
Ver también
- Prueba de Kolmogorov-Smirnov
- Prueba de Kuiper
- Prueba de Shapiro-Wilk
- Prueba de Jarque-Bera
- Bondad de ajuste
Referencias
- ↑ a b c d Stephens, MA (1974). "Estadísticas de EDF para la bondad de ajuste y algunas comparaciones". Revista de la Asociación Estadounidense de Estadística . 69 : 730–737. doi : 10.2307 / 2286009 .
- ^ a b c MA Stephens (1986). "Pruebas basadas en estadísticas de EDF". En D'Agostino, RB; Stephens, MA (eds.). Técnicas de bondad de ajuste . Nueva York: Marcel Dekker. ISBN 0-8247-7487-6.
- ^ Anderson, TW ; Darling, DA (1952). "Teoría asintótica de ciertos criterios de" bondad de ajuste "basados en procesos estocásticos" . Anales de estadística matemática . 23 : 193–212. doi : 10.1214 / aoms / 1177729437 .
- ^ Anderson, TW; Darling, DA (1954). "Una prueba de bondad de ajuste". Revista de la Asociación Estadounidense de Estadística . 49 : 765–769. doi : 10.2307 / 2281537 .
- ^ Razali, Nornadiah; Wah, Yap Bee (2011). "Comparaciones de potencia de las pruebas de Shapiro-Wilk, Kolmogorov-Smirnov, Lilliefors y Anderson-Darling" (PDF) . Revista de análisis y modelado estadístico . 2 (1): 21–33. Archivado desde el original (PDF) el 30 de junio de 2015 . Consultado el 5 de junio de 2012 .
- ^ a b Ralph B. D'Agostino (1986). "Pruebas de distribución normal". En D'Agostino, RB; Stephens, MA (eds.). Técnicas de bondad de ajuste . Nueva York: Marcel Dekker. ISBN 0-8247-7487-6.
- ^ a b Marsaglia, G. (2004). "Evaluación de la distribución Anderson-Darling". Revista de software estadístico . 9 (2): 730–737.
- ^ Scholz, FW; Stephens, MA (1987). "Pruebas de Anderson-Darling de K-sample". Revista de la Asociación Estadounidense de Estadística . 82 (399): 918–924. doi : 10.1080 / 01621459.1987.10478517 .
- ^ "kSamples: K-Sample Rank Tests y sus combinaciones" . Proyecto R .
Otras lecturas
- Corder, GW, Foreman, DI (2009). Estadísticas no paramétricas para no estadísticos: un enfoque paso a paso Wiley, ISBN 978-0-470-45461-9
- Mehta, S. (2014) Temas estadísticosISBN 978-1499273533
- Pearson ES, Hartley, HO (Editors) (1972) Biometrika Tables for Statisticians , Volumen II. TAZA. ISBN 0-521-06937-8 .
- Shapiro, SS (1980) Cómo probar la normalidad y otros supuestos distributivos. En: Las referencias básicas de la ASQC en control de calidad: técnicas estadísticas 3, págs. 1-78.
- Shorack, GR, Wellner, JA (1986) Procesos empíricos con aplicaciones a la estadística , Wiley. ISBN 0-471-86725-X .
- Stephens, MA (1979) Prueba de ajuste para la distribución logística basada en la función de distribución empírica , Biometrika, 66 (3), 591-5.
enlaces externos
- Manual de estadísticas del NIST de EE. UU.