En estadística , la prueba de Cochran-Mantel-Haenszel (CMH) es una prueba que se utiliza en el análisis de datos categóricos estratificados o emparejados . Permite a un investigador probar la asociación entre un predictor o tratamiento binario y un resultado binario, como el estado de caso o control, teniendo en cuenta la estratificación. [1] A diferencia de la prueba de McNemar que solo puede manejar pares, la prueba CMH maneja tamaños de estratos arbitrarios. Lleva el nombre de William G. Cochran , Nathan Mantel y William Haenszel . [2] [3]Las extensiones de esta prueba a una respuesta categórica y / oa varios grupos se denominan comúnmente estadísticas de Cochran-Mantel-Haenszel. [4] A menudo se utiliza en estudios observacionales en los que no se puede controlar la asignación aleatoria de sujetos a diferentes tratamientos, pero se pueden medir las covariables de confusión .
Consideramos una variable de resultado binaria como el estado del caso (por ejemplo, cáncer de pulmón) y un predictor binario, como el estado del tratamiento (por ejemplo, tabaquismo). Las observaciones se agrupan en estratos. Los datos estratificados se resumen en una serie de tablas de contingencia de 2 × 2, una para cada estrato. La i -ésima tabla de contingencia es:
Tratamiento
Sin tratamiento
Total de filas
Caso
A yo
B i
N 1 yo
Control S
C i
D i
N 2 i
Total de la columna
M 1 yo
M 2 yo
T i
La razón de posibilidades común de las tablas de contingencia K se define como:
La hipótesis nula es que no existe asociación entre el tratamiento y el resultado. Más precisamente, la hipótesis nula es y la hipótesis alternativa es . La estadística de prueba es:
Sigue una distribución asintóticamente con 1 gl bajo la hipótesis nula. [1]
Pruebas relacionadas
La prueba de McNemar solo puede manejar pares. La prueba CMH es una generalización de la prueba de McNemar, ya que sus estadísticas de prueba son idénticas cuando cada estrato muestra un par. [5]
Prueba de Breslow-Day para asociación homogénea. La prueba CMH supone que el efecto del tratamiento es homogéneo en todos los estratos. La prueba de Breslow-Day permite probar esta suposición. Esto no es motivo de preocupación si los estratos son pequeños, por ejemplo, pares.
Notas
↑ a b Agresti, Alan (2002). Análisis de datos categóricos . Hoboken, Nueva Jersey: John Wiley & Sons, Inc. págs. 231–232. ISBN0-471-36093-7.
^ William G. Cochran (diciembre de 1954). "Algunos métodos para fortalecer las pruebas de χ2 comunes". Biometría . 10 (4): 417–451. doi : 10.2307 / 3001616 . JSTOR 3001616 .
^ Nathan Mantel y William Haenszel (abril de 1959). "Aspectos estadísticos del análisis de datos de estudios retrospectivos de la enfermedad". Revista del Instituto Nacional del Cáncer . 22 (4): 719–748. doi : 10.1093 / jnci / 22.4.719 . PMID 13655060 .
^ Nathan Mantel (septiembre de 1963). "Pruebas de chi-cuadrado con un grado de libertad, extensiones del procedimiento de Mantel-Haenszel". Revista de la Asociación Estadounidense de Estadística . 58 (303): 690–700. doi : 10.1080 / 01621459.1963.10500879 . JSTOR 2282717 .
^ Agresti, Alan (2002). Análisis de datos categóricos . Hoboken, Nueva Jersey: John Wiley & Sons, Inc. p. 413. ISBN 0-471-36093-7.
^ Day NE, Byar DP (septiembre de 1979). "Prueba de hipótesis en estudios de casos y controles-equivalencia de estadísticas de Mantel-Haenszel y pruebas de puntuación logit". Biometría . 35 (3): 623–630. doi : 10.2307 / 2530253 . JSTOR 2530253 .
enlaces externos
Introducción a la prueba de Cochran-Mantel-Haenszel
vtmiEstadísticas
Esquema
Índice
Estadísticas descriptivas
Datos continuos
Centrar
Significar
aritmética
geométrico
armónico
cúbico
generalizado / poder
Mediana
Modo
Dispersión
Diferencia
Desviación Estándar
Desviación absoluta media
Coeficiente de variación
Percentil
Distancia
Rango intercuartil
Forma
Teorema del límite central
Momentos
Oblicuidad
Curtosis
Momentos L
Contar datos
Índice de dispersión
Tablas de resumen
Datos agrupados
Distribución de frecuencias
Mesa de contingencia
Dependencia
Correlación producto-momento de Pearson
Correlación de rango
Ρ de Spearman
Τ de Kendall
Correlación parcial
Gráfico de dispersión
Gráficos
Gráfico de barras
Biplot
Diagrama de caja
Tabla de control
Correlograma
Gráfico de abanico
Parcela forestal
Histograma
Gráfico circular
Gráfico Q – Q
Tabla de ejecutar
Gráfico de dispersión
Pantalla de tallo y hoja
Gráfico de radar
Trama de violín
Recopilación de datos
Diseño del estudio
Población
Estadística
Tamaño del efecto
Poder estatico
Diseño optimo
Determinación del tamaño de la muestra
Replicación
Datos perdidos
Metodología de la encuesta
Muestreo
estratificado
grupo
Error estándar
Encuesta de opinión
Cuestionario
Experimentos controlados
Control científico
Experimento aleatorizado
Ensayo controlado aleatorio
Asignación aleatoria
Bloqueo
Interacción
Experimento factorial
Diseños adaptables
Ensayo clínico adaptativo
Diseños de arriba hacia abajo
Aproximación estocástica
Estudios observacionales
Estudio transversal
Estudio de cohorte
Experimento natural
Cuasi-experimento
Inferencia estadística
Teoría estadística
Población
Estadística
Distribución de probabilidad
Distribución muestral
Estadística de pedidos
Distribución empírica
Estimación de densidad
Modelo estadístico
Especificación del modelo
L p espacio
Parámetro
localización
escala
forma
Familia paramétrica
Probabilidad (monótona)
Familia de escala de ubicación
Familia exponencial
Lo completo
Suficiencia
Estadístico funcional
Oreja
U
V
Decisión optima
función de pérdida
Eficiencia
Distancia estadística
divergencia
Asintóticos
Robustez
Inferencia frecuentista
Estimación puntual
Estimación de ecuaciones
Máxima verosimilitud
Método de momentos
Estimador M
Distancia minima
Estimadores insesgados
Varianza mínima media insesgada
Rao-Blackwellization
Teorema de Lehmann-Scheffé
Mediana imparcial
Enchufar
Estimación de intervalo
Intervalo de confianza
Pivote
Intervalo de probabilidad
Intervalo de predicción
Intervalo de tolerancia
Remuestreo
Oreja
Navaja
Prueba de hipótesis
1 y 2 colas
Poder
Prueba uniformemente más potente
Prueba de permutación
Prueba de aleatorización
Varias comparaciones
Pruebas paramétricas
Índice de probabilidad
Puntuación / multiplicador de Lagrange
Wald
Ensayos específicos
Prueba Z (normal)
Prueba t de estudiante
F- prueba
Bondad de ajuste
Chi-cuadrado
Prueba G
Kolmogorov – Smirnov
Anderson – Darling
Lilliefors
Jarque – Bera
Normalidad (Shapiro – Wilk)
Prueba de razón de verosimilitud
Selección de modelo
Validación cruzada
AIC
BIC
Estadísticas de rango
Firmar
Mediana de la muestra
Rango firmado (Wilcoxon)
Estimador de Hodges-Lehmann
Suma de rango (Mann-Whitney)
no paramétrico ANOVA
1 vía (Kruskal – Wallis)
2 vías (Friedman)
Alternativa ordenada (Jonckheere – Terpstra)
Inferencia bayesiana
Probabilidad bayesiana
previo
posterior
Intervalo creíble
Factor de Bayes
Estimador bayesiano
Estimador posterior máximo
CorrelaciónAnálisis de regresión
Correlación
Momento del producto de Pearson
Correlación parcial
Variable de confusión
Coeficiente de determinación
Análisis de regresión
Errores y residuales
Validación de regresión
Modelos de efectos mixtos
Modelos de ecuaciones simultáneas
Splines de regresión adaptativa multivariante (MARS)