De Wikipedia, la enciclopedia libre
  (Redirigido desde Estadísticas no paramétricas )
Saltar a navegación Saltar a búsqueda

La estadística no paramétrica es la rama de la estadística que no se basa únicamente en familias parametrizadas de distribuciones de probabilidad (ejemplos comunes de parámetros son la media y la varianza). Las estadísticas no paramétricas se basan en no tener distribución o en tener una distribución específica pero con los parámetros de la distribución sin especificar. La estadística no paramétrica incluye tanto la estadística descriptiva como la inferencia estadística . Las pruebas no paramétricas se utilizan a menudo cuando se violan los supuestos de las pruebas paramétricas. [1]

Definiciones [ editar ]

El término "estadísticas no paramétricas" se ha definido de manera imprecisa de las dos formas siguientes, entre otras.

  1. El primer significado de no paramétrico cubre técnicas que no se basan en datos pertenecientes a ninguna familia paramétrica particular de distribuciones de probabilidad.

    Estos incluyen, entre otros:

    Las estadísticas de pedidos , que se basan en los rangos de observaciones, es un ejemplo de tales estadísticas.

    La siguiente discusión está tomada de Kendall . [2]

    Las hipótesis estadísticas se refieren al comportamiento de las variables aleatorias observables ... Por ejemplo, la hipótesis (a) de que una distribución normal tiene una media y una varianza específicas es estadística; también lo es la hipótesis (b) de que tiene una media dada pero varianza no especificada; también lo es la hipótesis (c) de que una distribución es de forma normal con media y varianza sin especificar; finalmente, también lo es la hipótesis (d) de que dos distribuciones continuas no especificadas son idénticas.

    Se habrá notado que en los ejemplos (a) y (b) la distribución subyacente a las observaciones se tomó como de cierta forma (la normal) y la hipótesis se refería enteramente al valor de uno o ambos de sus parámetros. Tal hipótesis, por razones obvias, se llama paramétrica .

    La hipótesis (c) era de naturaleza diferente, ya que no se especifican valores de parámetro en el enunciado de la hipótesis; razonablemente podríamos llamar a tal hipótesis no paramétrica . La hipótesis (d) tampoco es paramétrica pero, además, ni siquiera especifica la forma subyacente de la distribución y ahora puede denominarse razonablemente libre de distribución . A pesar de estas distinciones, la literatura estadística ahora comúnmente aplica la etiqueta "no paramétrico" a los procedimientos de prueba que acabamos de denominar "sin distribución", perdiendo así una clasificación útil.

  2. El segundo significado de no paramétrico cubre técnicas que no asumen que la estructura de un modelo es fija. Normalmente, el modelo aumenta de tamaño para adaptarse a la complejidad de los datos. En estas técnicas, las variables individuales están típicamente supone que pertenecen a distribuciones paramétricas, y también se hacen suposiciones acerca de los tipos de conexiones entre las variables. Estas técnicas incluyen, entre otras:
    • regresión no paramétrica , que es un modelo mediante el cual la estructura de la relación entre las variables se trata de forma no paramétrica, pero donde, no obstante, puede haber supuestos paramétricos sobre la distribución de los residuos del modelo.
    • modelos bayesianos jerárquicos no paramétricos , como los modelos basados ​​en el proceso de Dirichlet , que permiten que el número de variables latentes crezca según sea necesario para ajustar los datos, pero donde las variables individuales siguen siguiendo distribuciones paramétricas e incluso el proceso que controla la tasa de crecimiento de las variables latentes siguen una distribución paramétrica.

Aplicaciones y finalidad [ editar ]

Los métodos no paramétricos se utilizan ampliamente para estudiar poblaciones que toman un orden de clasificación (como críticas de películas que reciben de una a cuatro estrellas). El uso de métodos no paramétricos puede ser necesario cuando los datos tienen una clasificación pero no tienen una interpretación numérica clara , como cuando se evalúan las preferencias . En términos de niveles de medición , los métodos no paramétricos dan como resultado datos ordinales .

Como los métodos no paramétricos hacen menos suposiciones, su aplicabilidad es mucho más amplia que la de los métodos paramétricos correspondientes. En particular, pueden aplicarse en situaciones en las que se sabe menos sobre la aplicación en cuestión. Además, debido a la dependencia de menos supuestos, los métodos no paramétricos son más robustos .

Otra justificación para el uso de métodos no paramétricos es la simplicidad. En ciertos casos, incluso cuando se justifica el uso de métodos paramétricos, los métodos no paramétricos pueden ser más fáciles de usar. Debido tanto a esta simplicidad como a su mayor solidez, algunos estadísticos consideran que los métodos no paramétricos dejan menos espacio para el uso inadecuado y los malentendidos.

La aplicabilidad más amplia y la mayor solidez de las pruebas no paramétricas tienen un costo: en los casos en que una prueba paramétrica sería apropiada, las pruebas no paramétricas tienen menos potencia . En otras palabras, se puede requerir un tamaño de muestra mayor para sacar conclusiones con el mismo grado de confianza.

Modelos no paramétricos [ editar ]

Los modelos no paramétricos se diferencian de los modelos paramétricos en que la estructura del modelo no se especifica a priori, sino que se determina a partir de los datos. El término no paramétrico no implica que tales modelos carezcan por completo de parámetros, sino que el número y la naturaleza de los parámetros son flexibles y no se fijan de antemano.

  • Un histograma es una estimación no paramétrica simple de una distribución de probabilidad.
  • La estimación de la densidad del grano proporciona mejores estimaciones de la densidad que los histogramas.
  • Se han desarrollado métodos de regresión no paramétrica y de regresión semiparamétrica basados ​​en kernels , splines y wavelets .
  • El análisis envolvente de datos proporciona coeficientes de eficiencia similares a los obtenidos por análisis multivariante sin ningún supuesto distributivo.
  • Los KNN clasifican la instancia invisible en función de los puntos K en el conjunto de entrenamiento que están más cerca de ella.
  • Una máquina de vectores de soporte (con un núcleo gaussiano) es un clasificador no paramétrico de gran margen.
  • El método de momentos con distribuciones de probabilidad polinomiales.

Métodos [ editar ]

Los métodos estadísticos inferenciales no paramétricos (o sin distribución ) son procedimientos matemáticos para la prueba de hipótesis estadísticas que, a diferencia de las estadísticas paramétricas , no hacen suposiciones sobre las distribuciones de probabilidad de las variables que se evalúan. Las pruebas más utilizadas incluyen

  • Análisis de similitudes
  • Prueba de Anderson-Darling : prueba si una muestra se extrae de una distribución determinada
  • Métodos de bootstrap estadístico : estima la precisión / distribución de muestreo de una estadística
  • Q de Cochran : prueba si k tratamientos en diseños de bloques aleatorios con resultados 0/1 tienen efectos idénticos
  • Kappa de Cohen : mide la concordancia entre evaluadores para ítems categóricos
  • Análisis de varianza bidireccional de Friedman por rangos: prueba si k tratamientos en diseños de bloques aleatorios tienen efectos idénticos
  • Kaplan-Meier : estima la función de supervivencia a partir de datos de por vida, modelando censura
  • Tau de Kendall : mide la dependencia estadística entre dos variables
  • W de Kendall : una medida entre 0 y 1 de acuerdo entre evaluadores
  • Prueba de Kolmogorov-Smirnov : prueba si una muestra se extrae de una distribución determinada o si dos muestras se extraen de la misma distribución
  • Análisis de varianza unidireccional de Kruskal-Wallis por rangos: prueba si se extraen> 2 muestras independientes de la misma distribución
  • Prueba de Kuiper : prueba si una muestra se extrae de una distribución dada, sensible a variaciones cíclicas como el día de la semana
  • Prueba de Logrank : compara las distribuciones de supervivencia de dos muestras censuradas sesgadas a la derecha
  • Prueba de suma de rangos de Mann-Whitney U o Wilcoxon: prueba si dos muestras se extraen de la misma distribución, en comparación con una hipótesis alternativa dada.
  • Prueba de McNemar : prueba si, en tablas de contingencia 2 × 2 con un rasgo dicotómico y pares de sujetos emparejados, las frecuencias marginales de filas y columnas son iguales
  • Prueba de mediana : prueba si dos muestras se extraen de distribuciones con medianas iguales
  • Prueba de permutación de Pitman : una prueba de significación estadística que arroja valores p exactos al examinar todas las posibles reordenaciones de etiquetas
  • Productos de rango : detecta genes expresados ​​diferencialmente en experimentos de microarrays replicados
  • Prueba de Siegel-Tukey : pruebas de diferencias de escala entre dos grupos
  • Prueba de signo : prueba si las muestras de pares coincidentes se extraen de distribuciones con medianas iguales
  • Coeficiente de correlación de rango de Spearman : mide la dependencia estadística entre dos variables usando una función monótona
  • Prueba de rangos al cuadrado : prueba la igualdad de varianzas en dos o más muestras
  • Prueba de Tukey-Duckworth : prueba la igualdad de dos distribuciones mediante el uso de rangos
  • Prueba de corridas de Wald-Wolfowitz : prueba si los elementos de una secuencia son mutuamente independientes / aleatorios
  • Prueba de rango con signo de Wilcoxon : prueba si las muestras de pares coincidentes se extraen de poblaciones con diferentes rangos medios

Historia [ editar ]

Las primeras estadísticas no paramétricas incluyen la mediana (siglo XIII o antes, uso en estimación por Edward Wright , 1599; ver Mediana § Historia ) y la prueba de signos de John Arbuthnot (1710) al analizar la proporción de sexos humanos al nacer (ver Prueba de signos § Historia ). [3] [4]

Ver también [ editar ]

  • Intervalo de confianza no paramétrico basado en CDF
  • Estadística paramétrica
  • Remuestreo (estadísticas)
  • Modelo semiparamétrico

Notas [ editar ]

  1. ^ Pearce, J; Derrick, B (2019). "Pruebas preliminares: ¿El diablo de las estadísticas?" . Reinvención: una revista internacional de investigación de pregrado . 12 (2). doi : 10.31273 / reinvention.v12i2.339 .
  2. ^ Stuart A., Ord JK, Arnold S. (1999), Teoría avanzada de estadística de Kendall: Volumen 2A — Inferencia clásica y el modelo lineal , sexta edición, §20.2-20.3 ( Arnold ).
  3. ^ Conover, WJ (1999), "Capítulo 3.4: La prueba de signos", Estadísticas prácticas no paramétricas (tercera edición), Wiley, pp. 157-176, ISBN 0-471-16068-7
  4. ^ Sprent, P. (1989), Métodos estadísticos no paramétricos aplicados (Segunda ed.), Chapman & Hall, ISBN 0-412-44980-3

Referencias generales [ editar ]

  • Bagdonavicius, V., Kruopis, J., Nikulin, MS (2011). "Pruebas no paramétricas para datos completos", ISTE & WILEY: London & Hoboken. ISBN 978-1-84821-269-5 . 
  • Corder, GW; Capataz, DI (2014). Estadísticas no paramétricas: un enfoque paso a paso . Wiley. ISBN 978-1118840313.
  • Gibbons, Jean Dickinson ; Chakraborti, Subhabrata (2003). Inferencia estadística no paramétrica , 4ª ed. Prensa CRC. ISBN 0-8247-4052-1 . 
  • Hettmansperger, T. P .; McKean, J. W. (1998). Métodos estadísticos no paramétricos robustos . Biblioteca de estadísticas de Kendall. 5 (Primera ed.). Londres: Edward Arnold . Nueva York: John Wiley & Sons. ISBN 0-340-54937-8. Señor  1604954 .también ISBN 0-471-19479-4 . 
  • Hollander M., Wolfe DA, Chicken E. (2014). Métodos estadísticos no paramétricos , John Wiley & Sons.
  • Sheskin, David J. (2003) Manual de procedimientos estadísticos paramétricos y no paramétricos . Prensa CRC. ISBN 1-58488-440-1 
  • Wasserman, Larry (2007). Todas las estadísticas no paramétricas , Springer. ISBN 0-387-25145-6 .