|
T de Tschuprow |
---|
En estadística , la T de Tschuprow es una medida de asociación entre dos variables nominales , dando un valor entre 0 y 1 (inclusive). Está muy relacionado con la V de Cramér , coincidiendo con ella para tablas de contingencia cuadradas . Fue publicado por Alexander Tschuprow (ortografía alternativa: Chuprov) en 1939. [1]
Definición
Para una tabla de contingencia r × c con r filas y c columnas, sea ser la proporción de la población en la celda y deja
- y
Entonces la contingencia cuadrática media se da como
y la T de Tschuprow como
Propiedades
T es igual a cero si y solo si la independencia se mantiene en la tabla, es decir, si y solo si. T es igual a uno si y solo hay una dependencia perfecta en la tabla, es decir, si y solo si para cada i hay solo un j tal quey viceversa. Por lo tanto, solo puede ser igual a 1 para tablas cuadradas. En esto se diferencia de la V de Cramér , que puede ser igual a 1 para cualquier mesa rectangular.
Estimacion
Si tenemos una muestra multinomial de tamaño n , la forma habitual de estimar T a partir de los datos es mediante la fórmula
dónde es la proporción de la muestra en la celda . Este es el valor empírico de la T . Conel estadístico chi-cuadrado de Pearson , esta fórmula también se puede escribir como
Ver también
Otras medidas de correlación para datos nominales:
Otros artículos relacionados:
Referencias
- ^ Tschuprow, AA (1939) Principios de la teoría matemática de la correlación ; traducido por M. Kantorowitsch. W. Hodge & Co.
- Liebetrau, A. (1983). Medidas de asociación (aplicaciones cuantitativas en las ciencias sociales). Publicaciones Sage