En las estadísticas , la transformación Fisher (aka Fisher z -Transformación ) se puede utilizar para probar hipótesis acerca del valor de la población coeficiente de correlación ρ entre las variables X y Y . [1] [2] Esto se debe a que, cuando la transformación se aplica al coeficiente de correlación de la muestra , la distribución muestral de la variable resultante es aproximadamente normal, con una varianza que es estable sobre diferentes valores de la correlación verdadera subyacente.
Definición
Dado un conjunto de N pares de muestras bivariadas ( X i , Y i ), i = 1, ..., N , el coeficiente de correlación muestral r viene dado por
Aquí representa la covarianza entre las variables y y representa la desviación estándar de la variable respectiva. La transformación z de Fisher de r se define como
donde "ln" es la función logaritmo natural y "arctanh" es la función tangente hiperbólica inversa .
Si ( X , Y ) tiene una distribución normal bivariada con correlación ρ y los pares ( X i , Y i ) son independientes e idénticamente distribuidos , entonces z tiene una distribución aproximadamente normal con media
donde N es el tamaño de la muestra y ρ es el verdadero coeficiente de correlación.
Esta transformación, y su inversa
se puede utilizar para construir un intervalo de confianza de muestra grande para r utilizando la teoría normal estándar y sus derivaciones. Véase también la aplicación a la correlación parcial .
Derivación
Para derivar la transformación de Fisher, se comienza considerando una función creciente arbitraria de , decir . Encontrar el primer término en el gran La expansión de la asimetría correspondiente da como resultado
Haciéndolo igual a cero y resolviendo la ecuación diferencial correspondiente para produce el función. De manera similar, expandiendo la media y la varianza de, uno obtiene
y
respectivamente. Los términos adicionales no forman parte de la transformación de Fisher habitual. Para grandes valores de y pequeños valores de representan una gran mejora de la precisión a un costo mínimo, aunque complican enormemente el cálculo de la inversa: no se dispone de una expresión de forma cerrada . La varianza casi constante de la transformación es el resultado de eliminar su asimetría: la mejora real se logra mediante este último, no con los términos adicionales. Incluyendo los términos adicionales, se obtiene:
que tiene, en una excelente aproximación, una distribución normal estándar . [3]
Discusión
La transformación de Fisher es una transformación estabilizadora de la varianza aproximada para r cuando X e Y siguen una distribución normal bivariada. Esto significa que la varianza de z es aproximadamente constante para todos los valores del coeficiente de correlación poblacional ρ . Sin la transformación de Fisher, la varianza de r se hace más pequeña a medida que | ρ | se acerca a 1. Dado que la transformación de Fisher es aproximadamente la función de identidad cuando | r | <1/2, a veces es útil recordar que la varianza de r está bien aproximada por 1 / N siempre que | ρ | no es demasiado grande y N no es demasiado pequeño. Esto está relacionado con el hecho de que la varianza asintótica de r es 1 para datos normales bivariados.
El comportamiento de esta transformada se ha estudiado ampliamente desde que Fisher la introdujo en 1915. El propio Fisher encontró la distribución exacta de z para los datos de una distribución normal bivariada en 1921; Gayen en 1951 [4] determinó la distribución exacta de z para los datos de una distribución de Edgeworth tipo A bivariada . Hotelling en 1953 calculó las expresiones de la serie de Taylor para los momentos de z y varios estadísticos relacionados [5] y Hawkins en 1989 descubrió la distribución asintótica de z para los datos de una distribución con cuartos momentos acotados. [6]
Una alternativa a la transformación de Fisher es utilizar la densidad de distribución de confianza exacta para ρ dada por [7]
dónde es la función hipergeométrica gaussiana y .
Otros usos
Si bien la transformación de Fisher se asocia principalmente con el coeficiente de correlación producto-momento de Pearson para observaciones normales bivariadas, también se puede aplicar al coeficiente de correlación de rango de Spearman en casos más generales. [8] Se aplica un resultado similar para la distribución asintótica , pero con un factor de ajuste menor: consulte el último artículo [ aclaración necesaria ] para obtener más detalles.
Ver también
- Transformación de datos (estadísticas)
- Metanálisis (esta transformación se utiliza en el metanálisis para estabilizar la varianza)
- Correlación parcial
- Implementación de R
Referencias
- ^ Fisher, RA (1915). "Distribución de frecuencias de los valores del coeficiente de correlación en muestras de una población indefinidamente grande". Biometrika . 10 (4): 507–521. doi : 10.2307 / 2331838 . hdl : 2440/15166 . JSTOR 2331838 .
- ^ Fisher, RA (1921). "Sobre el 'error probable' de un coeficiente de correlación deducido de una pequeña muestra" (PDF) . Metron . 1 : 3-32.
- ^ Vrbik, Jan (diciembre de 2005). "Momentos poblacionales de distribuciones muestrales". Estadística computacional . 20 (4): 611–621. doi : 10.1007 / BF02741318 .
- ^ Gayen, AK (1951). "La distribución de frecuencia del coeficiente de correlación producto-momento en muestras aleatorias de cualquier tamaño extraídas de universos no normales". Biometrika . 38 (1/2): 219–247. doi : 10.1093 / biomet / 38.1-2.219 . JSTOR 2332329 .
- ^ Hotelling, H (1953). "Nueva luz sobre el coeficiente de correlación y sus transformadas". Revista de la Sociedad Real de Estadística, Serie B . 15 (2): 193–225. JSTOR 2983768 .
- ^ Hawkins, DL (1989). "Uso de estadísticas U para derivar la distribución asintótica de la estadística Z de Fisher" . El estadístico estadounidense . 43 (4): 235–237. doi : 10.2307 / 2685369 . JSTOR 2685369 .
- ^ Taraldsen, Gunnar (2020). "Confianza en la correlación" . doi : 10.13140 / RG.2.2.23673.49769 . Cite journal requiere
|journal=
( ayuda ) - ^ Zar, Jerrold H. (2005). "Correlación de rango de Spearman: descripción general". Enciclopedia de bioestadística . doi : 10.1002 / 9781118445112.stat05964 . ISBN 9781118445112.