De Wikipedia, la enciclopedia libre
Saltar a navegación Saltar a búsqueda

En estadística , una correlación de rango es cualquiera de varios estadísticos que miden una asociación ordinal: la relación entre las clasificaciones de diferentes variables ordinales o diferentes clasificaciones de la misma variable, donde una "clasificación" es la asignación de las etiquetas de orden "primero", " segundo "," tercero ", etc. a diferentes observaciones de una variable en particular. Un coeficiente de correlación de rango mide el grado de similitud entre dos clasificaciones y se puede utilizar para evaluar la importancia de la relación entre ellos. Por ejemplo, dos métodos comunes no paramétricos de importancia que utilizan la correlación de rango son losPrueba U de Mann-Whitney y prueba de rangos con signo de Wilcoxon .

Contexto [ editar ]

Si, por ejemplo, una variable es la identidad de un programa de baloncesto universitario y otra variable es la identidad de un programa de fútbol universitario, se podría probar la relación entre las clasificaciones de las encuestas de los dos tipos de programas: programa de baloncesto clasificado tienden a tener un programa de fútbol de mayor rango? Un coeficiente de correlación de rango puede medir esa relación, y la medida de significación del coeficiente de correlación de rango puede mostrar si la relación medida es lo suficientemente pequeña como para ser probablemente una coincidencia.

Si solo hay una variable, la identidad de un programa de fútbol americano universitario, pero está sujeta a dos clasificaciones de encuestas diferentes (por ejemplo, una de entrenadores y otra de periodistas deportivos), entonces la similitud de las clasificaciones de las dos encuestas diferentes se puede medir con un coeficiente de correlación de rango.

Como otro ejemplo, en una tabla de contingencia con ingresos bajos , ingresos medios y altos en la variable de fila y nivel educativo ( sin escuela secundaria , preparatoria , universidad , en la variable de columna), [1] una correlación de rango mide la relación entre ingresos y nivel educativo.

Coeficientes de correlación [ editar ]

Algunas de las estadísticas de correlación de rango más populares incluyen

  1. Ρ de Spearman
  2. Τ de Kendall
  3. Γ de Goodman y Kruskal
  4. D de Somers

Un coeficiente de correlación de rango creciente implica una mayor concordancia entre clasificaciones. El coeficiente está dentro del intervalo [−1, 1] y asume el valor:

  • 1 si la concordancia entre las dos clasificaciones es perfecta; las dos clasificaciones son iguales.
  • 0 si las clasificaciones son completamente independientes.
  • −1 si el desacuerdo entre las dos clasificaciones es perfecto; una clasificación es la inversa de la otra.

Siguiendo a Diaconis (1988) , una clasificación puede verse como una permutación de un conjunto de objetos. Por lo tanto, podemos considerar las clasificaciones observadas como datos obtenidos cuando el espacio muestral es (identificado con) un grupo simétrico . Luego podemos introducir una métrica , convirtiendo el grupo simétrico en un espacio métrico . Diferentes métricas corresponderán a diferentes correlaciones de rango.

Coeficiente de correlación general [ editar ]

Kendall 1970 [2] mostró que su (tau) y Spearman (rho) son casos particulares de un coeficiente de correlación general.

Supongamos que tenemos un conjunto de objetos, que se están considerando en relación con dos propiedades, representadas por y , que forman los conjuntos de valores y . A cualquier par de individuos, digamos la -ésima y la -ésima, le asignamos una puntuación-, indicada por , y una puntuación, indicada por . El único requisito para estas funciones es que sean antisimétricas, por lo que y . (Tenga en cuenta que en particular si .) Entonces el coeficiente de correlación generalizada se define como

De manera equivalente, si todos los coeficientes se recopilan en matrices y , con y , entonces

donde está el producto interno de Frobenius y la norma de Frobenius . En particular, el coeficiente de correlación general es el coseno del ángulo entre las matrices y .

Kendall es un caso particular [ editar ]

Si , son los rangos del miembro de acuerdo con la calidad y la calidad respectivamente, entonces podemos definir

La suma es el número de pares concordantes menos el número de pares discordantes (consulte el coeficiente de correlación de rangos tau de Kendall ). La suma es justa , el número de términos , tal cual . Así, en este caso,

Spearman como un caso particular [ editar ]

Si , son los rangos del -miembro de acuerdo con la y la -calidad respectivamente, podemos simplemente definir

Las sumas y son iguales, ya que ambos y van de a . Entonces tenemos:

ahora

También tenemos

y por lo tanto

siendo la suma de los cuadrados de los primeros naturales iguales . Por tanto, la última ecuación se reduce a

Más lejos

y así, sustituyendo en la fórmula original estos resultados obtenemos

donde esta la diferencia entre rangos.

que es exactamente el coeficiente de correlación de rango de Spearman .

Correlación de rango-biserial [ editar ]

Gene Glass (1965) señaló que el rango biserial se puede derivar de Spearman . “Se puede derivar un coeficiente definido en X, la variable dicotómica, e Y, la variable de clasificación, que estima la rho de Spearman entre X e Y de la misma manera que biserial r estima la r de Pearson entre dos variables normales” (p. 91). La correlación de rango-biserial había sido introducida nueve años antes por Edward Cureton (1956) como una medida de correlación de rango cuando los rangos están en dos grupos.

Fórmula de diferencia simple de Kerby [ editar ]

Dave Kerby (2014) recomendó el rango biserial como la medida para introducir a los estudiantes a la correlación de rango, porque la lógica general se puede explicar en un nivel introductorio. El rango biserial es la correlación que se usa con la prueba U de Mann-Whitney , un método comúnmente cubierto en los cursos universitarios de introducción a la estadística. Los datos de esta prueba constan de dos grupos; y para cada miembro de los grupos, el resultado se clasifica para el estudio en su conjunto.

Kerby demostró que esta correlación de rango se puede expresar en términos de dos conceptos: el porcentaje de datos que apoyan una hipótesis establecida y el porcentaje de datos que no la apoyan. La fórmula de diferencia simple de Kerby establece que la correlación de rango se puede expresar como la diferencia entre la proporción de evidencia favorable ( f ) menos la proporción de evidencia desfavorable ( u ).

Ejemplo e interpretación [ editar ]

Para ilustrar el cálculo, suponga que un entrenador entrena a corredores de larga distancia durante un mes utilizando dos métodos. El grupo A tiene 5 corredores y el grupo B tiene 4 corredores. La hipótesis planteada es que el método A produce corredores más rápidos. La carrera para evaluar los resultados encuentra que los corredores del Grupo A corren más rápido, con los siguientes rangos: 1, 2, 3, 4 y 6. Los corredores más lentos del Grupo B tienen rangos de 5, 7, 8, y 9.

El análisis se realiza en parejas, definidas como un miembro de un grupo en comparación con un miembro del otro grupo. Por ejemplo, el corredor más rápido del estudio es miembro de cuatro pares: (1,5), (1,7), (1,8) y (1,9). Los cuatro pares apoyan la hipótesis, porque en cada par el corredor del Grupo A es más rápido que el corredor del Grupo B. Hay un total de 20 pares y 19 pares apoyan la hipótesis. La única pareja que no apoya la hipótesis son los dos corredores con rangos 5 y 6, porque en esta pareja, el corredor del Grupo B tuvo el tiempo más rápido. Según la fórmula de diferencia simple de Kerby, el 95% de los datos apoyan la hipótesis (19 de 20 pares) y el 5% no la respalda (1 de 20 pares), por lo que la correlación de rango es r = .95 - .05 = .90 .

El valor máximo de la correlación es r = 1, lo que significa que el 100% de los pares favorece la hipótesis. Una correlación de r = 0 indica que la mitad de los pares favorecen la hipótesis y la mitad no; en otras palabras, los grupos de muestra no difieren en rangos, por lo que no hay evidencia de que provengan de dos poblaciones diferentes. Se puede decir que un tamaño del efecto de r = 0 no describe ninguna relación entre la pertenencia al grupo y las filas de los miembros.

Referencias [ editar ]

  1. ^ Kruskal, William H. (1958). "Medidas Ordinales de Asociación". Revista de la Asociación Estadounidense de Estadística . 53 (284): 814–861. doi : 10.2307 / 2281954 . JSTOR  2281954 .
  2. ^ Kendall, Maurice G (1970). Métodos de correlación de rango (4 ed.). Grifo. ISBN 9780852641996.

Lectura adicional [ editar ]

  • Cureton, Edward E. (1956). "Correlación de rango-biserial". Psychometrika . 21 (3): 287–290. doi : 10.1007 / BF02289138 .
  • Everitt, BS (2002), The Cambridge Dictionary of Statistics , Cambridge: Cambridge University Press, ISBN 0-521-81099-X
  • Diaconis, P. (1988), Representaciones de grupo en probabilidad y estadística , Serie de monografías y notas de conferencias, Hayward, CA: Instituto de Estadística Matemática, ISBN 0-940600-14-5
  • Vidrio, Gene V. (1965). "Un análogo de la variable de clasificación de la correlación biserial: implicaciones para el análisis de elementos de atajo". Revista de medición educativa . 2 (1): 91–95. doi : 10.1111 / j.1745-3984.1965.tb00396.x .
  • Kendall, MG (1970), Métodos de correlación de rango , Londres: Griffin, ISBN 0-85264-199-0
  • Kerby, Dave S. (2014). "La fórmula de la diferencia simple: un enfoque para enseñar la correlación no paramétrica" . Psicología Integral . 3 (1). doi : 10.2466 / 11.IT.3.1 .

Enlaces externos [ editar ]

  • Breve guía del psicólogo experimental Karl L. Weunsch - Tamaños del efecto no paramétrico (Copyright 2015 de Karl L. Weunsch)