En estadística , la prueba de Kolmogorov-Smirnov ( prueba K-S o prueba KS ) es una prueba no paramétrica de la igualdad de distribuciones de probabilidad unidimensionales continuas (o discontinuas, consulte la Sección 2.2 ) que se pueden utilizar para comparar una muestra con una distribución de probabilidad de referencia (prueba K-S de una muestra), o para comparar dos muestras (prueba K-S de dos muestras). Lleva el nombre de Andrey Kolmogorov y Nikolai Smirnov .
El estadístico de Kolmogorov-Smirnov cuantifica una distancia entre la función de distribución empírica de la muestra y la función de distribución acumulada de la distribución de referencia, o entre las funciones de distribución empírica de dos muestras. La distribución nula de este estadístico se calcula bajo la hipótesis nula de que la muestra se extrae de la distribución de referencia (en el caso de una muestra) o que las muestras se extraen de la misma distribución (en el caso de dos muestras). En el caso de una muestra, la distribución considerada bajo la hipótesis nula puede ser continua (ver Sección 2 ), puramente discreta o mixta (ver Sección 2.2 ). En el caso de dos muestras (ver Sección 3 ), la distribución considerada bajo la hipótesis nula es una distribución continua, pero por lo demás no tiene restricciones. Sin embargo, la prueba de dos muestras también se puede realizar en condiciones más generales que permitan la discontinuidad, heterogeneidad y dependencia entre muestras. [1]
La prueba K – S de dos muestras es uno de los métodos no paramétricos más útiles y generales para comparar dos muestras, ya que es sensible a las diferencias tanto en la ubicación como en la forma de las funciones de distribución acumulativa empírica de las dos muestras.
La prueba de Kolmogorov-Smirnov se puede modificar para que sirva como una prueba de bondad de ajuste . En el caso especial de las pruebas de normalidad de la distribución, las muestras se estandarizan y se comparan con una distribución normal estándar. Esto equivale a establecer la media y la varianza de la distribución de referencia igual a las estimaciones de la muestra, y se sabe que usarlas para definir la distribución de referencia específica cambia la distribución nula del estadístico de prueba (ver Prueba con parámetros estimados ). Varios estudios han encontrado que, incluso en esta forma corregida, la prueba es menos poderosa para probar la normalidad que la prueba de Shapiro-Wilk o la prueba de Anderson-Darling . [2] Sin embargo, estas otras pruebas tienen sus propias desventajas. Por ejemplo, se sabe que la prueba de Shapiro-Wilk no funciona bien en muestras con muchos valores idénticos.
Estadístico de Kolmogorov-Smirnov
La función de distribución empírica F n para n observaciones ordenadas independientes e idénticamente distribuidas (iid) X i se define como
dónde es la función del indicador , igual a 1 si e igual a 0 en caso contrario.
El estadístico de Kolmogorov-Smirnov para una función de distribución acumulativa dada F ( x ) es
donde sup x es el supremo del conjunto de distancias. Intuitivamente, la estadística toma la mayor diferencia absoluta entre las dos funciones de distribución en todos los valores de x .
Según el teorema de Glivenko-Cantelli , si la muestra proviene de la distribución F ( x ), entonces D n converge a 0 casi con seguridad en el límite cuandova al infinito. Kolmogorov fortaleció este resultado, proporcionando efectivamente la tasa de esta convergencia (ver distribución de Kolmogorov ). El teorema de Donsker proporciona un resultado aún más sólido.
En la práctica, la estadística requiere una cantidad relativamente grande de puntos de datos (en comparación con otros criterios de bondad de ajuste, como la estadística de la prueba de Anderson-Darling ) para rechazar correctamente la hipótesis nula.
Distribución de Kolmogorov
La distribución de Kolmogorov es la distribución de la variable aleatoria
donde B ( t ) es el puente browniano . La función de distribución acumulativa de K viene dada por [3]
que también se puede expresar mediante la función theta de Jacobi . Andrey Kolmogorov publicó tanto la forma del estadístico de prueba de Kolmogorov-Smirnov como su distribución asintótica bajo la hipótesis nula , [4] mientras que Nikolai Smirnov publicó una tabla de la distribución . [5] Se dispone de relaciones de recurrencia para la distribución del estadístico de prueba en muestras finitas. [4]
Bajo la hipótesis nula de que la muestra proviene de la distribución hipotética F ( x ),
en distribución , donde B ( t ) es el puente browniano . Si F es continua, entonces bajo la hipótesis nulaconverge a la distribución de Kolmogorov, que no depende de F . Este resultado también puede conocerse como el teorema de Kolmogorov.
La precisión de este límite como una aproximación a la CDF exacta de Cuándo es finito no es muy impresionante: incluso cuando , el error máximo correspondiente es de aproximadamente ; este error aumenta a Cuándo y a un totalmente inaceptable Cuándo . Sin embargo, un expediente muy simple de reemplazar por
en el argumento de la función theta de Jacobi reduce estos errores a , , y respectivamente; dicha precisión se consideraría normalmente más que adecuada para todas las aplicaciones prácticas. [6]
La prueba de bondad de ajuste o la prueba de Kolmogorov-Smirnov se puede construir utilizando los valores críticos de la distribución de Kolmogorov. Esta prueba es asintóticamente válida cuando. Rechaza la hipótesis nula a nivel Si
donde K α se encuentra a partir de
El poder asintótico de esta prueba es 1.
Algoritmos rápidos y precisos para calcular el CDF o su complemento para arbitrario y , están disponibles en:
- [7] y [8] para distribuciones nulas continuas con código en C y Java en. [7]
- [9] para distribución nula puramente discreta, mixta o continua implementada en el paquete KSgeneral [10] del proyecto R para cálculo estadístico , que para una muestra dada también calcula el estadístico de prueba KS y su valor p. La implementación alternativa de C ++ está disponible en. [9]
Prueba con parámetros estimados
Si la forma o los parámetros de F ( x ) se determinan a partir de los datos X i, los valores críticos determinados de esta manera no son válidos. En tales casos, es posible que se requiera Monte Carlo u otros métodos, pero se han preparado tablas para algunos casos. Se han publicado detalles para las modificaciones requeridas a la estadística de prueba y para los valores críticos para la distribución normal y la distribución exponencial , [11] y publicaciones posteriores también incluyen la distribución de Gumbel . [12] La prueba de Lilliefors representa un caso especial de esto para la distribución normal. La transformación logarítmica puede ayudar a superar los casos en los que los datos de la prueba de Kolmogorov no parecen ajustarse al supuesto de que provienen de la distribución normal.
Al utilizar parámetros estimados, surge la pregunta sobre qué método de estimación debe utilizarse. Por lo general, este sería el método de máxima verosimilitud, pero, por ejemplo, para la distribución normal, MLE tiene un gran error de sesgo en sigma. El uso de un ajuste de momento o la minimización de KS en su lugar tiene un gran impacto en los valores críticos y también algo en la potencia de prueba. Si necesitamos decidir para los datos de Student-T con df = 2 a través de la prueba KS si los datos podrían ser normales o no, entonces una estimación ML basada en H 0 (los datos son normales, por lo que usar la desviación estándar para la escala) daría mucho mayor distancia KS, que un ajuste con mínimo KS. En este caso, deberíamos rechazar H 0 , que suele ser el caso con MLE, porque la desviación estándar de la muestra puede ser muy grande para los datos T-2, pero con la minimización de KS podemos obtener todavía un KS demasiado bajo para rechazar H 0 . En el caso de Student-T, una prueba de KS modificada con una estimación de KS en lugar de MLE hace que la prueba de KS sea un poco peor. Sin embargo, en otros casos, tal prueba KS modificada conduce a una potencia de prueba ligeramente mejor.
Distribución nula discreta y mixta
Bajo el supuesto de que es no decreciente y continua a la derecha, con un número contable (posiblemente infinito) de saltos, el estadístico de prueba KS se puede expresar como:
Desde la derecha-continuidad de , resulta que y y por lo tanto, la distribución de depende de la distribución nula , es decir, ya no está libre de distribución como en el caso continuo. Por lo tanto, se ha desarrollado un método rápido y preciso para calcular la distribución exacta y asintótica de Cuándo es puramente discreta o mixto, [9] implementado en C ++ y en el paquete KSgeneral [10] de la lengua R . Las funciones disc_ks_test()
, mixed_ks_test()
y cont_ks_test()
de computación también la estadística de prueba KS y los valores de p para las distribuciones nulos puramente discretos, mixtos o continuas y tamaños de muestra arbitraria. La prueba KS y sus valores p para distribuciones nulas discretas y tamaños de muestra pequeños también se calculan en [13] como parte del paquete dgof del lenguaje R. Los principales paquetes estadísticos entre los que SAS PROC NPAR1WAY
, [14] Stata ksmirnov
[15] implementan la prueba KS bajo el supuesto de quees continua, que es más conservadora si la distribución nula en realidad no es continua (ver [16] [17] [18] ).
Prueba de Kolmogorov-Smirnov de dos muestras
La prueba de Kolmogorov-Smirnov también se puede utilizar para probar si dos distribuciones de probabilidad unidimensionales subyacentes difieren. En este caso, la estadística de Kolmogorov-Smirnov es
dónde y son las funciones de distribución empírica de la primera y la segunda muestra respectivamente, yes la función suprema .
Para muestras grandes, la hipótesis nula se rechaza a nivel Si
Dónde y son los tamaños de la primera y segunda muestra respectivamente. El valor de se proporciona en la tabla siguiente para los niveles más comunes de
0,20 | 0,15 | 0,10 | 0,05 | 0,025 | 0,01 | 0,005 | 0,001 | |
1.073 | 1,138 | 1.224 | 1.358 | 1,48 | 1.628 | 1.731 | 1.949 |
y en general [19] por
para que la condición se lea
Aquí, nuevamente, cuanto mayor sea el tamaño de la muestra, más sensible será el límite mínimo: para una proporción dada de tamaños de muestra (p. Ej. ), las escalas de límite mínimo en el tamaño de cualquiera de las muestras de acuerdo con su raíz cuadrada inversa.
Tenga en cuenta que la prueba de dos muestras verifica si las dos muestras de datos provienen de la misma distribución. Esto no especifica cuál es esa distribución común (por ejemplo, si es normal o no). Nuevamente, se han publicado tablas de valores críticos. Un defecto de la prueba univariante de Kolmogorov-Smirnov es que no es muy potente porque está diseñada para ser sensible a todos los tipos posibles de diferencias entre dos funciones de distribución. Algunos argumentan [20] [21] que la prueba de Cucconi , propuesta originalmente para comparar simultáneamente ubicación y escala, puede ser mucho más poderosa que la prueba de Kolmogorov-Smirnov cuando se comparan dos funciones de distribución.
En 2021, Michael Naaman extendió la prueba de KS de una muestra y dos muestras al caso multivariado, incluidos los datos dependientes. [1]
Establecer límites de confianza para la forma de una función de distribución
Si bien la prueba de Kolmogorov-Smirnov se usa generalmente para probar si una determinada F ( x ) es la distribución de probabilidad subyacente de F n ( x ), el procedimiento puede invertirse para dar límites de confianza en F ( x ). Si se elige un valor crítico del estadístico de prueba D α tal que P ( D n > D α ) = α , entonces una banda de ancho ± D α alrededor de F n ( x ) contendrá completamente F ( x ) con probabilidad 1 - α .
La estadística de Kolmogorov-Smirnov en más de una dimensión
Justel, Peña y Zamar (1997) han propuesto una prueba de bondad de ajuste de Kolmogorov-Smirnov multivariante libre de distribución. [22] La prueba usa una estadística que se construye usando la transformación de Rosenblatt, y se desarrolla un algoritmo para calcularlo en el caso bivariado. También se presenta una prueba aproximada que se puede calcular fácilmente en cualquier dimensión.
El estadístico de la prueba de Kolmogorov-Smirnov debe modificarse si se va a aplicar una prueba similar a los datos multivariados . Esto no es sencillo porque la diferencia máxima entre dos funciones de distribución acumulativas conjuntas no es generalmente la misma que la diferencia máxima de cualquiera de las funciones de distribución complementarias. Por tanto, la diferencia máxima diferirá dependiendo de cuál de o o se utiliza cualquiera de los otros dos arreglos posibles. Se podría requerir que el resultado de la prueba utilizada no dependa de la elección que se haga.
Un enfoque para generalizar el estadístico Kolmogorov-Smirnov a dimensiones superiores que cumple con la preocupación anterior es comparar las CDF de las dos muestras con todos los ordenamientos posibles y tomar el mayor del conjunto de estadísticos K-S resultantes. En d dimensiones, hay 2 d −1 de tales ordenaciones. Una de esas variaciones se debe a Peacock [23] (ver también Gosset [24] para una versión en 3D) y otra a Fasano y Franceschini [25] (ver Lopes et al. Para una comparación y detalles computacionales). [26] Los valores críticos para el estadístico de prueba se pueden obtener mediante simulaciones, pero dependen de la estructura de dependencia en la distribución conjunta.
En una dimensión, la estadística de Kolmogorov-Smirnov es idéntica a la denominada discrepancia de estrellas D, por lo que otra extensión nativa de KS a dimensiones superiores sería simplemente utilizar D también para dimensiones superiores. Desafortunadamente, la discrepancia de estrellas es difícil de calcular en dimensiones altas.
En 2021 se descubrió la forma funcional del estadístico de prueba de KS multivariante, lo que simplificó el problema de estimar las probabilidades de cola del estadístico de prueba de KS multivariante, que es necesaria para la prueba estadística. Para el caso multivariado, si F i es el i- ésimo marginal continuo de una distribución de probabilidad con k variables, entonces
por lo que la distribución límite no depende de las distribuciones marginales. [1]
Implementaciones
La prueba de Kolmogorov-Smirnov (una o dos pruebas muestreadas verifican la igualdad de distribuciones) se implementa en muchos programas de software:
- Mathematica tiene KolmogorovSmirnovTest .
- MATLAB tiene kstest en su caja de herramientas de estadísticas.
- El paquete R "KSgeneral" [10] calcula las estadísticas de prueba de KS y sus valores p bajo una distribución nula arbitraria, posiblemente discreta, mixta o continua.
- El paquete base de estadísticas de R implementa la prueba como ks.test {stats} en su paquete "stats".
- SAS implementa la prueba en su procedimiento PROC NPAR1WAY.
- Python tiene una implementación de esta prueba proporcionada por SciPy [27] mediante funciones estadísticas (scipy.stats).
- SYSTAT (SPSS Inc., Chicago, IL)
- Java tiene una implementación de esta prueba proporcionada por Apache Commons . [28]
- KNIME tiene un nodo que implementa esta prueba basado en la implementación de Java anterior. [29]
- Julia tiene el paquete HypothesisTests.jl con la función ExactOneSampleKSTest (x :: AbstractVector {<: Real}, d :: UnivariateDistribution). [30]
- StatsDirect (StatsDirect Ltd, Manchester, Reino Unido) implementa todas las variantes comunes .
- Stata (Stata Corporation, College Station, TX) implementa la prueba en el comando ksmirnov (prueba de igualdad de distribuciones de Kolmogorov – Smirnov). [31]
- PSPP implementa la prueba en su KOLMOGOROV-SMIRNOV (o usando la función de acceso directo de KS).
- El paquete de recursos de estadísticas reales para Excel ejecuta la prueba como KSCRIT y KSPROB. [32]
A partir de 2021, estos programas no manejan la prueba multivariante.
Ver también
- Prueba de lepage
- Prueba de Cucconi
- Prueba de Kuiper
- Prueba de Shapiro-Wilk
- Prueba de Anderson-Darling
- Prueba de Cramér – von Mises
Referencias
- ↑ a b c Naamán, Michael (2021). "Sobre la constante apretada en la desigualdad multivariante de Dvoretzky-Kiefer-Wolfowitz" . Estadísticas y letras de probabilidad . 173 : 1–8 - a través de Science Direct.
- ^ Stephens, MA (1974). "Estadísticas de EDF para la bondad de ajuste y algunas comparaciones". Revista de la Asociación Estadounidense de Estadística . 69 (347): 730–737. doi : 10.2307 / 2286009 . JSTOR 2286009 .
- ^ Marsaglia G, Tsang WW, Wang J (2003). "Evaluación de la distribución de Kolmogorov" . Revista de software estadístico . 8 (18): 1–4. doi : 10.18637 / jss.v008.i18 .
- ^ a b Kolmogorov A (1933). "Sulla determinazione empirica di una legge di distribuzione". G. Ist. Ital. Attuari . 4 : 83–91.
- ^ Smirnov N (1948). "Tabla para estimar la bondad de ajuste de distribuciones empíricas" . Anales de estadística matemática . 19 (2): 279–281. doi : 10.1214 / aoms / 1177730256 .
- ^ Vrbik, enero (2018). "Correcciones de muestra pequeña a la estadística de prueba de Kolmogorov-Smirnov". Revista pionera de estadística teórica y aplicada . 15 (1–2): 15–23.
- ^ a b Simard R, L'Ecuyer P (2011). "Computación de la distribución de Kolmogorov-Smirnov bilateral" . Revista de software estadístico . 39 (11): 1–18. doi : 10.18637 / jss.v039.i11 .
- ^ Moscovich A, Nadler B (2017). "Cálculo rápido de probabilidades de cruce de límites para procesos de Poisson". Estadísticas y letras de probabilidad . 123 : 177-182. arXiv : 1503.04363 . doi : 10.1016 / j.spl.2016.11.027 .
- ^ a b c Dimitrova DS, Kaishev VK, Tan S (2020). "Calcular la distribución de Kolmogorov-Smirnov cuando el CDF subyacente es puramente discreto, mixto o continuo" . Revista de software estadístico . 95 (10): 1–42. doi : 10.18637 / jss.v095.i10 .
- ^ a b c Dimitrova, Dimitrina; Kaishev, Vladimir; Tan, Senren. "KSgeneral: Calcular valores P de la prueba KS para (Dis) distribución nula continua" . cran.r-project.org/web/packages/KSgeneral/index.html .
- ^ Pearson, ES; Hartley, HO, eds. (1972). Tablas de biometrika para estadísticos . 2 . Prensa de la Universidad de Cambridge. págs. 117-123, cuadros 54, 55. ISBN 978-0-521-06937-3.
- ^ Shorack, Galen R .; Wellner, Jon A. (1986). Procesos empíricos con aplicaciones a la estadística . Wiley. pag. 239. ISBN 978-0471867258.
- ^ Arnold, Taylor B .; Emerson, John W. (2011). "Pruebas de bondad de ajuste no paramétricas para distribuciones nulas discretas" (PDF) . The R Journal . 3 (2): 34 \ [Dash] 39. doi : 10.32614 / rj-2011-016 .
- ^ "Guía del usuario de SAS / STAT (R) 14.1" . support.sas.com . Consultado el 14 de abril de 2018 .
- ^ "prueba de igualdad de distribuciones de ksmirnov - Kolmogorov-Smirnov" (PDF) . stata.com . Consultado el 14 de abril de 2018 .
- ^ Noether GE (1963). "Nota sobre la estadística de Kolmogorov en el caso discreto". Metrika . 7 (1): 115-116. doi : 10.1007 / bf02613966 .
- ^ Slakter MJ (1965). "Una comparación de las pruebas de bondad de ajuste de Pearson Chi-Square y Kolmogorov con respecto a la validez". Revista de la Asociación Estadounidense de Estadística . 60 (311): 854–858. doi : 10.2307 / 2283251 . JSTOR 2283251 .
- ^ Walsh JE (1963). "Propiedades de probabilidad limitada de Kolmogorov-Smirnov y estadísticas similares para datos discretos". Anales del Instituto de Matemática Estadística . 15 (1): 153-158. doi : 10.1007 / bf02865912 .
- ^ Eq. (15) en la Sección 3.3.1 de Knuth, DE, The Art of Computer Programming, Volumen 2 (Algoritmos seminuméricos), 3ra Edición, Addison Wesley, Reading Mass, 1998.
- ^ Marozzi, Marco (2009). "Algunas notas sobre la prueba de Cucconi de escala de ubicación". Revista de estadísticas no paramétricas . 21 (5): 629–647. doi : 10.1080 / 10485250902952435 .
- ^ Marozzi, Marco (2013). "Pruebas simultáneas no paramétricas para pruebas de ubicación y escala: una comparación de varios métodos". Comunicaciones en Estadística - Simulación y Computación . 42 (6): 1298-1317. doi : 10.1080 / 03610918.2012.665546 .
- ^ Justel, A .; Peña, D .; Zamar, R. (1997). "Una prueba multivariante de Kolmogorov-Smirnov de bondad de ajuste". Estadísticas y letras de probabilidad . 35 (3): 251-259. CiteSeerX 10.1.1.498.7631 . doi : 10.1016 / S0167-7152 (97) 00020-5 .
- ^ Peacock JA (1983). "Prueba de bondad de ajuste bidimensional en astronomía" . Avisos mensuales de la Royal Astronomical Society . 202 (3): 615–627. Código bibliográfico : 1983MNRAS.202..615P . doi : 10.1093 / mnras / 202.3.615 .
- ^ Gosset E. (1987). "Una prueba de Kolmogorov-Smirnov extendida tridimensional como una herramienta útil en astronomía}". Astronomía y Astrofísica . 188 (1): 258–264. Bibcode : 1987A y A ... 188..258G .
- ^ Fasano, G., Franceschini, A. (1987). "Una versión multidimensional de la prueba de Kolmogorov-Smirnov" . Avisos mensuales de la Royal Astronomical Society . 225 : 155-170. Código Bibliográfico : 1987MNRAS.225..155F . doi : 10.1093 / mnras / 225.1.155 . ISSN 0035-8711 .Mantenimiento de CS1: utiliza el parámetro de autores ( enlace )
- ^ Lopes, RHC, Reid, I., Hobson, PR (23 a 27 de abril de 2007). La prueba bidimensional de Kolmogorov-Smirnov (PDF) . XI Taller Internacional de Técnicas Avanzadas de Computación y Análisis en la Investigación en Física. Amsterdam, Holanda.Mantenimiento de CS1: utiliza el parámetro de autores ( enlace )
- ^ "scipy.stats.kstest" . SciPy SciPy v0.14.0 Guía de referencia . La comunidad Scipy . Consultado el 18 de junio de 2019 .
- ^ "KolmogorovSmirnovTes" . Consultado el 18 de junio de 2019 .
- ^ "Nuevos nodos de estadísticas" . Consultado el 25 de junio de 2020 .
- ^ https://juliastats.org/HypothesisTests.jl/stable/nonparametric/#Kolmogorov-Smirnov-test-1
- ^ "prueba de igualdad de distribuciones de ksmirnov - Kolmogorov - Smirnov" (PDF) . Consultado el 18 de junio de 2019 .
- ^ "Prueba de Kolmogorov-Smirnov para pruebas de hipótesis de normalidad" . Consultado el 18 de junio de 2019 .
Otras lecturas
- Daniel, Wayne W. (1990). "Prueba de una muestra de Kolmogorov – Smirnov" . Estadística no paramétrica aplicada (2ª ed.). Boston: PWS-Kent. págs. 319–330. ISBN 978-0-534-91976-4.
- Eadie, WT; D. Drijard; FE James; M. Roos; B. Sadoulet (1971). Métodos estadísticos en física experimental . Amsterdam: Holanda Septentrional. págs. 269-271. ISBN 978-0-444-10117-4.
- Stuart, Alan; Ord, Keith; Arnold, Steven [F.] (1999). Inferencia clásica y modelo lineal . Teoría avanzada de estadística de Kendall. 2A (Sexta ed.). Londres: Arnold. págs. 25,37-25,43. ISBN 978-0-340-66230-4. Señor 1687411 .
- Corder, GW; Capataz, DI (2014). Estadísticas no paramétricas: un enfoque paso a paso . Wiley. ISBN 978-1118840313.
- Stephens, MA (1979). "Prueba de ajuste para la distribución logística basada en la función de distribución empírica". Biometrika . 66 (3): 591–595. doi : 10.1093 / biomet / 66.3.591 .
enlaces externos
- "Prueba de Kolmogorov-Smirnov" , Enciclopedia de Matemáticas , EMS Press , 2001 [1994]
- Breve introducción
- Explicación de la prueba KS
- Implementación de JavaScript de pruebas de una y dos caras
- Calculadora en línea con la prueba KS
- Código C ++ de código abierto para calcular la distribución de Kolmogorov y realizar la prueba de KS
- Documento sobre la evaluación de la distribución de Kolmogorov ; contiene la implementación de C. Este es el método utilizado en Matlab .
- Documento sobre la computación de la distribución de Kolmogorov-Smirnov a dos caras ; calcular la CDF de la estadística KS en C o Java.
- Paper powerlaw: un paquete de Python para el análisis de distribuciones de colas pesadas ; Jeff Alstott, Ed Bullmore, Dietmar Plenz. Entre otros, también realiza la prueba de Kolmogorov-Smirnov. El código fuente y los instaladores del paquete powerlaw están disponibles en PyPi .