En estadística , el método de Scheffé , que lleva el nombre del estadístico estadounidense Henry Scheffé , es un método para ajustar los niveles de significancia en un análisis de regresión lineal para tener en cuenta las comparaciones múltiples . Es particularmente útil en el análisis de varianza (un caso especial de análisis de regresión) y en la construcción de bandas de confianza simultáneas para regresiones que involucran funciones de base .
El método de Scheffé es un procedimiento de comparación múltiple de un solo paso que se aplica al conjunto de estimaciones de todos los posibles contrastes entre las medias de los niveles de factor, no solo a las diferencias por pares consideradas por el método de Tukey-Kramer . Funciona con principios similares al procedimiento de Working-Hotelling para estimar las respuestas medias en regresión, que se aplica al conjunto de todos los niveles de factores posibles.
El método
Sea μ 1 , ..., μ r las medias de alguna variable en r poblaciones disjuntas.
Un contraste arbitrario se define por
dónde
Si μ 1 , ..., μ r son todos iguales entre sí, entonces todos los contrastes entre ellos son 0. De lo contrario, algunos contrastes difieren de 0.
Técnicamente, hay infinitos contrastes. El coeficiente de confianza simultáneo es exactamente 1 - α, ya sea que los tamaños de muestra a nivel de factor sean iguales o desiguales. (Por lo general, solo interesa un número finito de comparaciones. En este caso, el método de Scheffé suele ser bastante conservador y la tasa de error familiar (tasa de error experimental) generalmente será mucho menor que α.) [1] [2]
Estimamos C por
para el cual la varianza estimada es
dónde
- n i es el tamaño de la muestra tomada de la i- ésima población (aquella cuya media es μ i ), y
- es la varianza estimada de los errores .
Se puede demostrar que la probabilidad es 1 - α de que todos los límites de confianza del tipo
son simultáneamente correctas, donde, como es habitual, N es el tamaño de toda la población. Draper y Smith, en su 'Análisis de regresión aplicado' (ver referencias), indican que 'r' debería estar en la ecuación en lugar de 'r-1'. El deslizamiento con 'r-1' es el resultado de no tener en cuenta el efecto adicional del término constante en muchas regresiones. Que el resultado basado en 'r-1' es incorrecto se ve fácilmente considerando r = 2, como en una regresión lineal simple estándar. Esa fórmula luego se reduciría a una con la distribución t habitual, que es apropiada para predecir / estimar para un solo valor de la variable independiente, no para construir una banda de confianza para un rango de valores del valor independiente. También tenga en cuenta que la fórmula es para tratar con los valores medios para un rango de valores independientes, no para comparar con valores individuales como valores de datos observados individuales. [3]
Denotando el significado de Scheffé en una tabla
Con frecuencia, se utilizan letras en superíndice para indicar qué valores son significativamente diferentes utilizando el método Scheffé. Por ejemplo, cuando los valores medios de las variables que se han analizado mediante un ANOVA se presentan en una tabla, se les asigna un superíndice de letra diferente basado en un contraste de Scheffé. Los valores que no sean significativamente diferentes según el contraste de Scheffé post-hoc tendrán el mismo superíndice y los valores que sean significativamente diferentes tendrán superíndices diferentes (es decir, 15a, 17a, 34b significarían que la primera y la segunda variables difieren de la tercera variable). pero no entre sí porque a ambos se les asigna el superíndice "a"). [ cita requerida ]
Comparación con el método de Tukey-Kramer
Si sólo se va a realizar un número fijo de comparaciones por pares, el método de Tukey-Kramer dará como resultado un intervalo de confianza más preciso. En el caso general, cuando muchos o todos los contrastes pueden ser de interés, el método de Scheffé es más apropiado y dará intervalos de confianza más estrechos en el caso de un gran número de comparaciones.
Referencias
- ^ Maxwell, Scott E .; Delaney, Harold D. (2004). Diseño de experimentos y análisis de datos: una comparación de modelos . Lawrence Erlbaum Associates. págs. 217–218. ISBN 0-8058-3718-3.
- ^ Milliken, George A .; Johnson, Dallas E. (1993). Análisis de datos desordenados . Prensa CRC. págs. 35–36. ISBN 0-412-99081-4.
- ^ Draper, Norman R; Smith, Harry (1998). Análisis de regresión aplicado (2ª ed.). John Wiley and Sons, Inc. pág. 93 . ISBN 9780471170822.
- Bohrer, Robert (1967). "Sobre el afilado de los límites de Scheffé". Revista de la Royal Statistical Society . Serie B 29 (1): 110-114. JSTOR 2984571 .
- Scheffé, H. (1999) [1959]. El análisis de varianza . Nueva York: Wiley. ISBN 0-471-34505-9.
enlaces externos
Este artículo incorpora material de dominio público del sitio web del Instituto Nacional de Estándares y Tecnología https://www.nist.gov .