En estadística , el método de Fisher , [1] [2] también conocido como prueba de probabilidad combinada de Fisher , es una técnica para la fusión de datos o " metanálisis " (análisis de análisis). Fue desarrollado y nombrado por Ronald Fisher . En su forma básica, se utiliza para combinar los resultados de varias pruebas de independencia que se basan en la misma hipótesis general ( H 0 ).
Aplicación a estadísticas de pruebas independientes
El método de Fisher combina probabilidades de valor extremo de cada prueba, comúnmente conocidas como " valores p ", en una estadística de prueba ( X 2 ) usando la fórmula
donde p i es el valor p para la i- ésima prueba de hipótesis. Cuando los valores p tienden a ser pequeños, el estadístico de prueba X 2 será grande, lo que sugiere que las hipótesis nulas no son ciertas para todas las pruebas.
Cuando todas las hipótesis nulas son verdaderas y el p i (o sus correspondientes estadísticos de prueba) son independientes, X 2 tiene una distribución chi-cuadrado con 2 k grados de libertad , donde k es el número de pruebas que se combinan. Este hecho se puede utilizar para determinar el valor p de X 2 .
La distribución de X 2 es una distribución chi-cuadrado por la siguiente razón; bajo la hipótesis nula para la prueba i , el valor p p i sigue una distribución uniforme en el intervalo [0,1]. El logaritmo natural negativo de un valor distribuido uniformemente sigue una distribución exponencial . Al escalar un valor que sigue una distribución exponencial por un factor de dos, se obtiene una cantidad que sigue una distribución chi-cuadrado con dos grados de libertad. Finalmente, la suma de k valores independientes de chi-cuadrado, cada uno con dos grados de libertad, sigue una distribución de chi-cuadrado con 2 k grados de libertad.
Limitaciones del supuesto de independencia
La dependencia entre las pruebas estadísticas es generalmente [ vaga ] positiva, lo que significa que el valor p de X 2 es demasiado pequeño (anti-conservador) si no se tiene en cuenta la dependencia. Por lo tanto, si el método de Fisher para pruebas independientes se aplica en un entorno dependiente, y el valor p no es lo suficientemente pequeño como para rechazar la hipótesis nula, entonces esa conclusión seguirá siendo válida incluso si la dependencia no se explica adecuadamente. Sin embargo, si no se tiene en cuenta la dependencia positiva y se encuentra que el valor p del metanálisis es pequeño, la evidencia en contra de la hipótesis nula generalmente se sobrestima. La tasa de falso descubrimiento media ,, reducido para k pruebas independientes o correlacionadas positivamente, puede ser suficiente para controlar alfa para una comparación útil con un valor p demasiado pequeño de la X 2 de Fisher .
Extensión a las estadísticas de prueba dependientes
En los casos en que las pruebas no son independientes, la distribución nula de X 2 es más complicada. Una estrategia común es aproximar la distribución nula con una variable aleatoria de distribución χ 2 escalada . Se pueden usar diferentes enfoques dependiendo de si se conoce o no la covarianza entre los diferentes valores p.
El método de Brown [3] se puede utilizar para combinar valores p dependientes cuyas estadísticas de prueba subyacentes tienen una distribución normal multivariante con una matriz de covarianza conocida. El método de Kost [4] extiende el de Brown para permitir que uno combine valores p cuando la matriz de covarianza se conoce solo hasta un factor multiplicativo escalar.
El valor p de la media armónica ofrece una alternativa al método de Fisher para combinar valores p cuando se desconoce la estructura de dependencia, pero no se puede suponer que las pruebas sean independientes. [5] [6]
Interpretación
El método de Fisher se aplica típicamente a una colección de estadísticas de prueba independientes, generalmente de estudios separados que tienen la misma hipótesis nula. La hipótesis nula del metanálisis es que todas las hipótesis nulas separadas son verdaderas. La hipótesis alternativa del metanálisis es que al menos una de las hipótesis alternativas independientes es verdadera.
En algunos entornos, tiene sentido considerar la posibilidad de "heterogeneidad", en la que la hipótesis nula se cumple en algunos estudios pero no en otros, o donde diferentes hipótesis alternativas pueden ser válidas en diferentes estudios. Una razón común para la última forma de heterogeneidad es que los tamaños del efecto pueden diferir entre las poblaciones. Por ejemplo, considere una colección de estudios médicos que analizan el riesgo de una dieta alta en glucosa para desarrollar diabetes tipo II . Debido a factores genéticos o ambientales, el verdadero riesgo asociado con un nivel dado de consumo de glucosa puede ser mayor en algunas poblaciones humanas que en otras.
En otros contextos, la hipótesis alternativa es universalmente falsa o universalmente verdadera; no hay posibilidad de que se mantenga en algunos contextos pero no en otros. Por ejemplo, considere varios experimentos diseñados para probar una ley física en particular. Cualquier discrepancia entre los resultados de estudios o experimentos separados debe deberse al azar, posiblemente impulsada por diferencias de poder .
En el caso de un metanálisis que utiliza pruebas de dos caras, es posible rechazar la hipótesis nula del metanálisis incluso cuando los estudios individuales muestran efectos fuertes en diferentes direcciones. En este caso, rechazamos la hipótesis de que la hipótesis nula es cierta en todos los estudios, pero esto no implica que exista una hipótesis alternativa uniforme que se mantenga en todos los estudios. Por lo tanto, el metanálisis bilateral es particularmente sensible a la heterogeneidad en las hipótesis alternativas. El metanálisis unilateral puede detectar heterogeneidad en las magnitudes del efecto, pero se centra en una única dirección del efecto preespecificada.
Relación con el método de puntuación Z de Stouffer
Un enfoque estrechamente relacionado con el método de Fisher es el Z de Stouffer, basado en puntuaciones Z en lugar de valores p, lo que permite la incorporación de ponderaciones de estudio. Lleva el nombre del sociólogo Samuel A. Stouffer . [7] Si dejamos que Z i = Φ - 1 (1− p i ), donde Φ es la función de distribución acumulativa normal estándar , entonces
es una puntuación Z para el metanálisis general. Esta puntuación Z es apropiada para valores p de cola derecha unilaterales; Se pueden realizar modificaciones menores si se analizan valores p de dos lados o de cola izquierda. Específicamente, si se analizan valores p de dos lados, se usa el valor p de dos lados (p i / 2), o 1-p i si se usan valores p de cola izquierda. [8] [ fuente no confiable? ]
Dado que el método de Fisher se basa en el promedio de los valores de −log ( p i ), y el método de puntuación Z se basa en el promedio de los valores de Z i , la relación entre estos dos enfoques se deriva de la relación entre z y −log ( p ) = −log (1− Φ ( z )). Para la distribución normal, estos dos valores no están perfectamente relacionados linealmente, pero siguen una relación altamente lineal en el rango de valores Z observados con mayor frecuencia, de 1 a 5. Como resultado, la potencia del método de puntuación Z es casi idéntico al poder del método de Fisher.
Una ventaja del método de puntuación Z es que es sencillo introducir ponderaciones. [9] [10] Si el i- ésimo puntaje Z está ponderado por w i , entonces el puntaje Z del metanálisis es
que sigue una distribución normal estándar bajo la hipótesis nula. Si bien se pueden derivar versiones ponderadas del estadístico de Fisher, la distribución nula se convierte en una suma ponderada de estadísticos chi-cuadrado independientes, con lo que es menos conveniente trabajar.
Referencias
- ^ Fisher, RA (1925). Métodos estadísticos para investigadores . Oliver y Boyd (Edimburgo). ISBN 0-05-002170-2.
- ^ Fisher, RA; Fisher, R. A (1948). "Preguntas y respuestas # 14". El estadístico estadounidense . 2 (5): 30–31. doi : 10.2307 / 2681650 . JSTOR 2681650 .
- ^ Brown, M. (1975). "Un método para combinar pruebas de significancia unilaterales no independientes". Biometría . 31 (4): 987–992. doi : 10.2307 / 2529826 .
- ^ Kost, J .; McDermott, M. (2002). "Combinación de valores P dependientes". Estadísticas y letras de probabilidad . 60 (2): 183-190. doi : 10.1016 / S0167-7152 (02) 00310-3 .
- ^ Bien, IJ (1958). "Pruebas de significancia en paralelo y en serie". Revista de la Asociación Estadounidense de Estadística . 53 (284): 799–813. doi : 10.1080 / 01621459.1958.10501480 . JSTOR 2281953 .
- ^ Wilson, DJ (2019). "El valor p medio armónico para combinar pruebas dependientes" . Actas de la Academia Nacional de Ciencias de EE . UU . 116 (4): 1195-1200. doi : 10.1073 / pnas.1814092116 . PMC 6347718 .
- ^ Stouffer, SA; Suchman, EA; DeVinney, LC; Star, SA; Williams, RM Jr. (1949). The American Soldier, Vol.1: Ajuste durante la vida del ejército . Prensa de la Universidad de Princeton, Princeton.
- ^ "Prueba de valores p de dos colas utilizando el enfoque de Stouffer" . stats.stackexchange.com . Consultado el 14 de septiembre de 2015 .
- ^ Mosteller, F .; Bush, RR (1954). "Técnicas cuantitativas seleccionadas". En Lindzey, G. (ed.). Manual de Psicología Social, Vol1 . Addison_Wesley, Cambridge, Mass. Págs. 289–334.
- ^ Liptak, T. (1958). "Sobre la combinación de pruebas independientes". Magyar Tud. Akad. Estera. Internacional de Kutato Kozl . 3 : 171-197.
Ver también
- Extensiones del método de Fisher
- Una fuente alternativa para la nota de Fisher de 1948: [1]
- El puntaje Z de Fisher, Stouffer y algunos métodos relacionados se implementan en el paquete metap R.