Estadística suficiente


En estadística , una estadística es suficiente con respecto a un modelo estadístico y su parámetro desconocido asociado si "ninguna otra estadística que pueda calcularse a partir de la misma muestra proporcione información adicional sobre el valor del parámetro". [1] En particular, una estadística es suficiente para una familia de distribuciones de probabilidad si la muestra a partir de la cual se calcula no brinda información adicional a la estadística, en cuanto a cuál de esas distribuciones de probabilidad es la distribución de muestreo .

Un concepto relacionado es el de suficiencia lineal , que es más débil que la suficiencia pero se puede aplicar en algunos casos donde no hay suficiente estadística, aunque está restringido a estimadores lineales. [2] La función de estructura de Kolmogorov trata con datos finitos individuales; la noción relacionada allí es la estadística algorítmica suficiente.

El concepto se debe a Sir Ronald Fisher en 1920. Stephen Stigler señaló en 1973 que el concepto de suficiencia había caído en desgracia en las estadísticas descriptivas debido a la fuerte dependencia de una suposición de la forma de distribución (ver el teorema de Pitman-Koopman-Darmois a continuación ), pero siguió siendo muy importante en el trabajo teórico. [3]

Aproximadamente, dado un conjunto de datos independientes distribuidos idénticamente condicionados por un parámetro desconocido , una estadística suficiente es una función cuyo valor contiene toda la información necesaria para calcular cualquier estimación del parámetro (por ejemplo, una estimación de máxima verosimilitud ). Debido al teorema de factorización ( ver más abajo ), para una estadística suficiente , la densidad de probabilidad se puede escribir como . A partir de esta factorización, se puede ver fácilmente que la estimación de máxima verosimilitud de interactuará con solo a través de . Normalmente, la estadística suficiente es una función simple de los datos, por ejemplo, la suma de todos los puntos de datos.

De manera más general, el "parámetro desconocido" puede representar un vector de cantidades desconocidas o puede representar todo lo que se desconoce o no se especifica completamente sobre el modelo. En tal caso, el estadístico suficiente puede ser un conjunto de funciones, llamado estadístico conjuntamente suficiente . Por lo general, hay tantas funciones como parámetros. Por ejemplo, para una distribución gaussiana con media y varianza desconocidas , la estadística conjuntamente suficiente, a partir de la cual se pueden estimar las estimaciones de máxima verosimilitud de ambos parámetros, consta de dos funciones, la suma de todos los puntos de datos y la suma de todos los puntos de datos al cuadrado ( o de manera equivalente, la media muestral y la varianza muestral).

El concepto es equivalente a afirmar que, condicionado al valor de un estadístico suficiente para un parámetro, la distribución de probabilidad conjunta de los datos no depende de ese parámetro. Tanto la estadística como el parámetro subyacente pueden ser vectores.