La prueba de Kuiper se usa en estadística para probar si una distribución dada , o una familia de distribuciones, se contradice con la evidencia de una muestra de datos. Lleva el nombre del matemático holandés Nicolaas Kuiper . [1]
La prueba de Kuiper está estrechamente relacionada con la prueba más conocida de Kolmogorov-Smirnov (o prueba de KS, como se la llama a menudo). Al igual que con la prueba KS, las estadísticas de discrepancia D + y D - representan los tamaños absolutos de las diferencias más positivas y más negativas entre las dos funciones de distribución acumuladas que se están comparando. El truco con la prueba de Kuiper es usar la cantidad D + + D - como estadística de prueba. Este pequeño cambio hace que la prueba de Kuiper sea tan sensible en las colas como en la mediana y también la hace invariante bajo transformaciones cíclicas de la variable independiente. LaLa prueba de Anderson-Darling es otra prueba que proporciona la misma sensibilidad en las colas que la mediana, pero no proporciona la invariancia cíclica.
Esta invariancia bajo transformaciones cíclicas hace que la prueba de Kuiper sea invaluable cuando se prueban variaciones cíclicas por época del año o día de la semana u hora del día, y más generalmente para probar el ajuste y las diferencias entre distribuciones de probabilidad circular .
Definición
El estadístico de prueba, V , para la prueba de Kuiper se define como sigue. Sea F la función de distribución acumulativa continua que será la hipótesis nula . Denote la muestra de datos que son realizaciones independientes de variables aleatorias , teniendo F como su función de distribución, por x i ( i = 1, ..., n ). Luego defina [2]
y finalmente,
Se dispone de tablas para los puntos críticos del estadístico de prueba, [3] y estas incluyen ciertos casos en los que la distribución que se está probando no se conoce completamente, de modo que se estiman los parámetros de la familia de distribuciones .
Ejemplo
Podríamos probar la hipótesis de que las computadoras fallan más durante algunas épocas del año que en otras. Para probar esto, recopilaríamos las fechas en las que el conjunto de pruebas de computadoras había fallado y construiríamos una función de distribución empírica . La hipótesis nula es que las fallas se distribuyen uniformemente . La estadística de Kuiper no cambia si cambiamos el comienzo del año y no requiere que clasifiquemos las fallas en meses o similares. [1] [4] Otro estadístico de prueba que tiene esta propiedad es el estadístico de Watson, [2] [4] que está relacionado con la prueba de Cramér-von Mises .
Sin embargo, si las fallas ocurren principalmente los fines de semana, muchas pruebas de distribución uniforme, como KS y Kuiper, perderían esto, ya que los fines de semana se distribuyen a lo largo del año. Esta incapacidad para distinguir distribuciones con forma de peine de distribuciones uniformes continuas es un problema clave con todas las estadísticas basadas en una variante de la prueba KS. La prueba de Kuiper, aplicada a los tiempos de eventos módulo una semana, es capaz de detectar tal patrón. El uso de tiempos de eventos que se han modulado con la prueba KS puede dar como resultado resultados diferentes dependiendo de cómo se escalonan los datos. En este ejemplo, la prueba KS puede detectar la falta de uniformidad si los datos están configurados para comenzar la semana el sábado, pero no detecta la falta de uniformidad si la semana comienza el miércoles.
Ver también
Referencias
- ↑ a b Kuiper, NH (1960). "Pruebas relativas a puntos aleatorios en un círculo". Actas de la Koninklijke Nederlandse Akademie van Wetenschappen, serie A . 63 : 38–47.
- ^ a b Pearson, ES , Hartley, HO (1972) Tablas de biometrika para estadísticos, volumen 2 , CUP. ISBN 0-521-06937-8 (página 118)
- ^ Pearson, ES , Hartley, HO (1972) Tablas de biometrika para estadísticos, volumen 2 , CUP. ISBN 0-521-06937-8 (tabla 54)
- ^ a b Watson, GS (1961) "Pruebas de bondad de ajuste en un círculo", Biometrika , 48 (1/2), 109-114 JSTOR 2333135