Prueba de normalidad


De Wikipedia, la enciclopedia libre
Saltar a navegación Saltar a búsqueda

En estadística , las pruebas de normalidad se utilizan para determinar si un conjunto de datos está bien modelado por una distribución normal y para calcular la probabilidad de que una variable aleatoria subyacente al conjunto de datos se distribuya normalmente.

Más precisamente, las pruebas son una forma de selección de modelo y se pueden interpretar de varias maneras, dependiendo de la interpretación que se haga de la probabilidad :

Se utiliza una prueba de normalidad para determinar si los datos de la muestra se han extraído de una población distribuida normalmente (dentro de cierta tolerancia). Varias pruebas estadísticas, como la prueba t de Student y el ANOVA unidireccional y bidireccional, requieren una población de muestra distribuida normalmente


Métodos gráficos

Un enfoque informal para probar la normalidad es comparar un histograma de los datos de la muestra con una curva de probabilidad normal. La distribución empírica de los datos (el histograma) debe tener forma de campana y parecerse a la distribución normal. Esto puede resultar difícil de ver si la muestra es pequeña. En este caso, se podría proceder al hacer una regresión de los datos contra los cuantiles de una distribución normal con la misma media y varianza que la muestra. La falta de ajuste a la línea de regresión sugiere una desviación de la normalidad (consulte el coeficiente de Anderson Darling y minitab).

Una herramienta gráfica para evaluar la normalidad es la gráfica de probabilidad normal , una gráfica de cuantiles-cuantiles (gráfica QQ) de los datos estandarizados contra la distribución normal estándar . Aquí, la correlación entre los datos de la muestra y los cuantiles normales (una medida de la bondad del ajuste) mide qué tan bien se modelan los datos mediante una distribución normal. Para datos normales, los puntos trazados en la gráfica QQ deben caer aproximadamente en una línea recta, lo que indica una alta correlación positiva. Estos gráficos son fáciles de interpretar y también tienen la ventaja de que los valores atípicos se identifican fácilmente.

Prueba del reverso del sobre

La prueba simple del reverso del sobre toma el máximo y mínimo de la muestra y calcula su puntaje z , o más apropiadamente el estadístico t (número de desviaciones estándar de la muestra que una muestra está por encima o por debajo de la media de la muestra), y la compara con la regla 68-95-99.7 : si uno tiene un evento de 3 σ (correctamente, un evento de 3 s ) y sustancialmente menos de 300 muestras, o un evento de 4 sy sustancialmente menos de 15,000 muestras, entonces una distribución normal subestimará el máximo magnitud de las desviaciones en los datos de la muestra.

Esta prueba es útil en los casos en los que uno enfrenta riesgo de curtosis , donde las grandes desviaciones son importantes, y tiene los beneficios de que es muy fácil de calcular y comunicar: los no estadísticos pueden comprender fácilmente que "los eventos de 6 σ son muy raros en distribuciones normales". .

Pruebas frecuentes

Las pruebas de normalidad univariante incluyen las siguientes:

Un estudio de 2011 concluye que Shapiro-Wilk tiene el mejor poder para un significado dado, seguido de cerca por Anderson-Darling al comparar las pruebas de Shapiro-Wilk, Kolmogorov-Smirnov, Lilliefors y Anderson-Darling. [1]

Algunos trabajos publicados recomiendan la prueba Jarque-Bera, [2] [3] pero la prueba tiene debilidad. En particular, la prueba tiene baja potencia para distribuciones con colas cortas, especialmente para distribuciones bimodales. [4] Algunos autores se han negado a incluir sus resultados en sus estudios debido a su bajo rendimiento general. [5]

Históricamente, el tercer y cuarto momentos estandarizados ( asimetría y curtosis ) fueron algunas de las primeras pruebas de normalidad. La prueba Lin-Mudholkar apunta específicamente a alternativas asimétricas. [6] La prueba de Jarque-Bera se deriva en sí misma de estimaciones de asimetría y curtosis . Las pruebas de asimetría y curtosis multivariadas de Mardia generalizan las pruebas de momento al caso multivariado. [7] Otras estadísticas de prueba iniciales incluyen la relación entre la desviación absoluta media y la desviación estándar y el rango y la desviación estándar.[8]

Las pruebas de normalidad más recientes incluyen la prueba de energía [9] (Székely y Rizzo) y las pruebas basadas en la función característica empírica (ECF) (por ejemplo, Epps y Pulley, [10] Henze-Zirkler, [11] prueba BHEP [12] ). Las pruebas de energía y ECF son pruebas poderosas que se aplican para probar la normalidad univariante o multivariante y son estadísticamente consistentes con las alternativas generales.

La distribución normal tiene la entropía más alta de cualquier distribución para una desviación estándar determinada. Hay una serie de pruebas de normalidad basadas en esta propiedad, la primera atribuible a Vasicek. [13]

Pruebas bayesianas

Las divergencias de Kullback-Leibler entre todas las distribuciones posteriores de la pendiente y la varianza no indican no normalidad. Sin embargo, el cociente de expectativas de estos posteriores y la expectativa de los cocientes dan resultados similares a la estadística de Shapiro-Wilk excepto para muestras muy pequeñas, cuando se utilizan priores no informativos. [14]

Spiegelhalter sugiere usar un factor de Bayes para comparar la normalidad con una clase diferente de alternativas de distribución. [15] Este enfoque ha sido ampliado por Farrell y Rogers-Stewart. [dieciséis]

Aplicaciones

Una aplicación de las pruebas de normalidad es a los residuos de un modelo de regresión lineal . [17] Si no tienen una distribución normal, los residuos no deben usarse en las pruebas Z ni en ninguna otra prueba derivada de la distribución normal, como las pruebas t , las pruebas F y las pruebas de chi-cuadrado . Si los residuos no se distribuyen normalmente, entonces la variable dependiente o al menos una variable explicativa puede tener la forma funcional incorrecta, o pueden faltar variables importantes, etc. Corrección de uno o más de estos errores sistemáticospuede producir residuos que se distribuyen normalmente; en otras palabras, la no normalidad de los residuos es a menudo una deficiencia del modelo más que un problema de datos. [ cita requerida ]

Ver también

  • Prueba de aleatoriedad
  • Resumen de siete números

Notas

  1. ^ Razali, Nornadiah; Wah, Yap Bee (2011). "Comparaciones de potencia de las pruebas de Shapiro-Wilk, Kolmogorov-Smirnov, Lilliefors y Anderson-Darling" (PDF) . Revista de análisis y modelado estadístico . 2 (1): 21–33. Archivado desde el original (PDF) el 30 de junio de 2015.
  2. ^ Juez, George G .; Griffiths, WE; Hill, R. Carter; Lütkepohl, Helmut ; Lee, T. (1988). Introducción a la teoría y práctica de la econometría (Segunda ed.). Wiley. págs. 890–892. ISBN 978-0-471-08277-4.
  3. ^ Gujarati, Damodar N. (2002). Econometría básica (Cuarta ed.). McGraw Hill. págs. 147-148. ISBN 978-0-07-123017-9.
  4. ^ Thadewald, Thorsten; Büning, Herbert (1 de enero de 2007). "Prueba Jarque-Bera y sus competidores para probar la normalidad: una comparación de potencia". Revista de estadísticas aplicadas . 34 (1): 87-105. CiteSeerX 10.1.1.507.1186 . doi : 10.1080 / 02664760600994539 . 
  5. ^ Sürücü, Barış (1 de septiembre de 2008). "Un estudio de simulación y comparación de potencia de las pruebas de bondad de ajuste" . Computadoras y Matemáticas con Aplicaciones . 56 (6): 1617–1625. doi : 10.1016 / j.camwa.2008.03.010 .
  6. ^ Lin, CC; Mudholkar, GS (1980). "Una simple prueba de normalidad frente a alternativas asimétricas". Biometrika . 67 (2): 455–461. doi : 10.1093 / biomet / 67.2.455 .
  7. ^ Mardia, KV (1970). Medidas de asimetría y curtosis multivariante con aplicaciones. Biometrika 57, 519-530.
  8. ^ Filliben, JJ (febrero de 1975). "La prueba del coeficiente de correlación de la gráfica de probabilidad para la normalidad". Tecnometría . 17 (1): 111-117. doi : 10.2307 / 1268008 . JSTOR 1268008 . 
  9. ^ Székely, GJ y Rizzo, ML (2005) Una nueva prueba de normalidad multivariante, Journal of Multivariate Analysis 93, 58–80.
  10. ^ Epps, TW y Polea, LB (1983). Una prueba de normalidad basada en la función característica empírica. Biometrika 70, 723–726.
  11. ^ Henze, N. y Zirkler, B. (1990). Una clase de pruebas constantes e invariantes de normalidad multivariante. Comunicaciones en estadística: teoría y métodos 19, 3595–3617.
  12. ^ Henze, N. y Wagner, T. (1997). Un nuevo enfoque de las pruebas de BHEP para la normalidad multivariante. Journal of Multivariate Analysis 62, 1–23.
  13. ^ Vasicek, Oldrich (1976). "Una prueba de normalidad basada en la entropía de la muestra". Revista de la Royal Statistical Society . Serie B (Metodológica). 38 (1): 54–59. JSTOR 2984828 . 
  14. ^ Young KDS (1993), "Diagnóstico bayesiano para comprobar supuestos de normalidad". Journal of Statistical Computation and Simulation , 47 (3–4), 167–180
  15. ^ Spiegelhalter, DJ (1980). Una prueba ómnibus de normalidad para muestras pequeñas. Biometrika, 67, 493–496. doi : 10.1093 / biomet / 67.2.493
  16. ^ Farrell, PJ, Rogers-Stewart, K. (2006) "Estudio integral de pruebas de normalidad y simetría: extensión de la prueba de Spiegelhalter". Journal of Statistical Computation and Simulation , 76 (9), 803 - 816. doi : 10.1080 / 10629360500109023
  17. ^ Portney, LG y Watkins, MP (2000). Fundamentos de la investigación clínica: aplicaciones a la práctica . Nueva Jersey: Prentice Hall Health. págs. 516–517. ISBN 0838526950.CS1 maint: varios nombres: lista de autores ( enlace )

Otras lecturas

  • Ralph B. D'Agostino (1986). "Pruebas de distribución normal". En D'Agostino, RB; Stephens, MA (eds.). Técnicas de bondad de ajuste . Nueva York: Marcel Dekker. ISBN 978-0-8247-7487-5.
  • Henry C. Thode, Jr. (2002). Prueba de normalidad . Nueva York: Marcel Dekker, Inc. págs.  479 . ISBN 978-0-8247-9613-6.


Obtenido de " https://en.wikipedia.org/w/index.php?title=Normality_test&oldid=1032192709 "