En las estadísticas , G -pruebas son razón de verosimilitud o probabilidad máxima significación estadística pruebas que se están utilizando cada vez más en situaciones en las pruebas de chi-cuadrado se recomendaron anteriormente. [1]
La fórmula general para G es
dónde es el recuento observado en una celda, es el recuento esperado bajo la hipótesis nula ,denota el logaritmo natural , y la suma se toma sobre todas las celdas no vacías. Además, el recuento total observado debe ser igual al recuento total esperado:
Las pruebas G se han recomendado al menos desde la edición de 1981 de Biometry , un libro de texto de estadística de Robert R. Sokal y F. James Rohlf . [2]
Derivación
Podemos derivar el valor de la prueba G a partir de la prueba de razón logarítmica de verosimilitud donde el modelo subyacente es un modelo multinomial.
Supongamos que tenemos una muestra donde cada es el número de veces que un objeto de tipo fue observado. Además, dejasea el número total de objetos observados. Si asumimos que el modelo subyacente es multinomial, entonces el estadístico de prueba se define por
Distribución y uso
Dada la hipótesis nula de que las frecuencias observadas resultan de un muestreo aleatorio de una distribución con las frecuencias esperadas dadas, la distribución de G es aproximadamente una distribución de chi-cuadrado , con el mismo número de grados de libertad que en la prueba de chi-cuadrado correspondiente.
Para muestras muy pequeñas, la prueba multinomial de bondad de ajuste y la prueba exacta de Fisher para tablas de contingencia, o incluso la selección de hipótesis bayesianas, son preferibles a la prueba G. [3] McDonald recomienda utilizar siempre una prueba exacta (prueba exacta de bondad de ajuste, prueba exacta de Fisher ) si el tamaño total de la muestra es inferior a 1000.
No hay nada mágico en un tamaño de muestra de 1000, es solo un buen número redondo que está dentro del rango en el que una prueba exacta, una prueba de chi-cuadrado y una prueba G darán valores de P casi idénticos. Las hojas de cálculo, las calculadoras de páginas web y SAS no deberían tener ningún problema para realizar una prueba exacta en un tamaño de muestra de 1000.
- John H. McDonald, Manual de estadísticas biológicas
Relación con la prueba de chi-cuadrado
Las pruebas de chi-cuadrado comúnmente utilizadas para determinar la bondad de ajuste a una distribución y para la independencia en las tablas de contingencia son de hecho aproximaciones de la razón logarítmica de verosimilitud en la que se basan las pruebas G. La fórmula general para el estadístico de la prueba de chi-cuadrado de Pearson es
La aproximación de G por chi cuadrado se obtiene mediante una expansión de Taylor de segundo orden del logaritmo natural alrededor de 1. Para ver esto, considere
- ,
y deja con , de modo que el número total de recuentos sigue siendo el mismo. Tras la sustitución encontramos,
- .
Una expansión de Taylor alrededor se puede realizar usando . El resultado es
- y distribuyendo términos que encontramos,
- .
Ahora, usando el hecho de que y , podemos escribir el resultado,
- .
Esto muestra que cuando lo observado cuenta están cerca de los conteos esperados . Cuando esta diferencia es grande, sin embargo, lala aproximación comienza a romperse. Aquí, los efectos de los valores atípicos en los datos serán más pronunciados, y esto explica el por qué las pruebas fallan en situaciones con pocos datos.
En Hoey (2012) se proporciona una derivación de cómo se relaciona la prueba de chi-cuadrado con la prueba G y las razones de verosimilitud, incluida una solución bayesiana completa. [4]
Para muestras de un tamaño razonable, la prueba G y la prueba de chi-cuadrado llevarán a las mismas conclusiones. Sin embargo, la aproximación a la distribución teórica de chi-cuadrado para la prueba G es mejor que para la prueba de chi-cuadrado de Pearson . [5] En los casos en quepara algunos casos de celda, la prueba G es siempre mejor que la prueba de chi-cuadrado. [ cita requerida ]
Para probar la bondad de ajuste, la prueba G es infinitamente más eficiente que la prueba de chi cuadrado en el sentido de Bahadur, pero las dos pruebas son igualmente eficientes en el sentido de Pitman o en el sentido de Hodges y Lehmann. [6] [7]
Relación con la divergencia Kullback-Leibler
El estadístico G -test es proporcional a la divergencia de Kullback-Leibler de la distribución teórica de la distribución empírica:
donde N es el número total de observaciones y y son las frecuencias empírica y teórica, respectivamente.
Relación con la información mutua
Para el análisis de tablas de contingencia, el valor de G también se puede expresar en términos de información mutua .
Dejar
- , , , y .
Entonces G se puede expresar en varias formas alternativas:
donde la entropía de una variable aleatoria discreta Se define como
y donde
es la información mutua entre el vector fila r y el vector columna c de la tabla de contingencia.
También se puede mostrar [ cita requerida ] que la ponderación de frecuencia inversa del documento comúnmente utilizada para la recuperación de texto es una aproximación de G aplicable cuando la suma de filas para la consulta es mucho menor que la suma de filas para el resto del corpus. De manera similar, el resultado de la inferencia bayesiana aplicada a una elección de distribución multinomial única para todas las filas de la tabla de contingencia tomadas en conjunto versus la alternativa más general de un multinomio separado por fila produce resultados muy similares al estadístico G. [ cita requerida ]
Solicitud
- La prueba de McDonald-Kreitman en genética estadística es una aplicación de la prueba G.
- Dunning [8] introdujo la prueba en la comunidad de lingüística computacional donde ahora se usa ampliamente.
Software estadístico
- En R, las implementaciones rápidas se pueden encontrar en los paquetes AMR y Rfast . Para el paquete AMR, el comando es
g.test
que funciona exactamente comochisq.test
desde la base R. R también tiene la función likelihood.test en el paquete Deducer . Nota: La prueba G de Fisher en el paquete GeneCycle del lenguaje de programación R (fisher.g.test
) no implementa la prueba G como se describe en este artículo, sino la prueba exacta de Fisher del ruido blanco gaussiano en una serie de tiempo. [9] - La entropía del paquete R. proporciona otra implementación de R para calcular el estadístico G y los valores p correspondientes . Los comandos son para el estadístico G estándar y el valor p asociado y para el estadístico G aplicado para comparar distribuciones conjuntas y de productos para probar la independencia.
Gstat
Gstatindep
- En SAS , se puede realizar G -test aplicando la
/chisq
opción después deproc freq
. [10] - En Stata , se puede realizar una prueba G aplicando la
lr
opción después deltabulate
comando. - En Java , use
org.apache.commons.math3.stat.inference.GTest
. [11] - En Python , use
scipy.stats.power_divergence
conlambda_=0
. [12]
Referencias
- ^ McDonald, JH (2014). "Prueba G de bondad de ajuste" . Manual de estadísticas biológicas (tercera edición). Baltimore, Maryland: Sparky House Publishing. págs. 53–58.
- ^ Sokal, RR; Rohlf, FJ (1981). Biometría: los principios y la práctica de la estadística en la investigación biológica (Segunda ed.). Nueva York: Freeman. ISBN 978-0-7167-2411-7.
- ^ McDonald, JH (2014). "Pequeños números en chi-cuadrado y pruebas G " . Manual de estadísticas biológicas (tercera edición). Baltimore, Maryland: Sparky House Publishing. págs. 86–89.
- ^ Hoey, J. (2012). "La prueba de razón de verosimilitud de dos vías (G) y comparación con la prueba de chi cuadrado de dos vías". arXiv : 1206.4881 [ stat.ME ].
- ^ Harremoës, P .; Tusnády, G. (2012). "La divergencia de información se distribuye más chi cuadrado que la estadística de chi cuadrado". Actas ISIT 2012 . págs. 538–543. arXiv : 1202.1125 . Código bibliográfico : 2012arXiv1202.1125H .
- ^ Quine, diputado; Robinson, J. (1985). "Eficiencias de pruebas de bondad de ajuste de chi-cuadrado y razón de verosimilitud" . Annals of Statistics . 13 (2): 727–742. doi : 10.1214 / aos / 1176349550 .
- ^ Harremoës, P .; Vajda, I. (2008). "Sobre la prueba de uniformidad eficiente de Bahadur mediante la entropía". Transacciones IEEE sobre teoría de la información . 54 : 321–331. CiteSeerX 10.1.1.226.8051 . doi : 10.1109 / tit.2007.911155 .
- ^ Dunning, Ted (1993). " Métodos precisos para las estadísticas de sorpresa y coincidencia archivado 2011-12-15 en la Wayback Machine ", Lingüística Computacional , Volumen 19, número 1 (marzo de 1993).
- ^ Fisher, RA (1929). "Ensayos de significación en análisis armónico" . Actas de la Royal Society de Londres Una . 125 (796): 54–59. Código Bib : 1929RSPSA.125 ... 54F . doi : 10.1098 / rspa.1929.0151 .
- ^ Prueba G de independencia , prueba G de bondad de ajuste en Handbook of Biological Statistics, University of Delaware. (págs. 46–51, 64–69 en: McDonald, JH (2009) Handbook of Biological Statistics (2ª ed.). Sparky House Publishing, Baltimore, Maryland.)
- ^ org.apache.commons.math3.stat.inference.GTest
- ^ https://docs.scipy.org/doc/scipy/reference/generated/scipy.stats.power_divergence.html#scipy.stats.power_divergence
enlaces externos
- Calculadora de probabilidad logarítmica / G 2