En estadística , la integridad es una propiedad de una estadística en relación con un modelo para un conjunto de datos observados. En esencia, asegura que las distribuciones correspondientes a diferentes valores de los parámetros sean distintas.
Está estrechamente relacionado con la idea de identificabilidad , pero en la teoría estadística a menudo se encuentra como una condición impuesta a una estadística suficiente de la que se derivan ciertos resultados de optimización.
Definición
Considere una variable aleatoria X cuya distribución de probabilidad pertenece a un modelo paramétrico P θ parametrizado por θ .
Digamos que T es una estadística ; es decir, la composición de una función medible con una muestra aleatoria X 1 , ..., X n .
La estadística T se dice que es completa para la distribución de X si, para cada función medible g, : [1]
Se dice que el estadístico T es acotado completo para la distribución de X si esta implicación se cumple para cada función medible g que también está acotada.
Ejemplo 1: modelo de Bernoulli
El modelo de Bernoulli admite una estadística completa. [2] Sea X una muestra aleatoria de tamaño n tal que cada X i tenga la misma distribución de Bernoulli con el parámetro p . Sea T el número de unos observados en la muestra. T es una estadística de X que tiene una distribución binomial con parámetros ( n , p ). Si el espacio de parámetros para p es (0,1), entonces T es una estadística completa. Para ver esto, tenga en cuenta que
Observe también que ni p ni 1 - p pueden ser 0. Por tanto si y solo si:
Al denotar p / (1 - p ) por r , se obtiene:
Primero, observe que el rango de r son los reales positivos . Además, E ( g ( T )) es un polinomio en r y, por lo tanto, solo puede ser idéntico a 0 si todos los coeficientes son 0, es decir, g ( t ) = 0 para todo t .
Es importante notar que el resultado de que todos los coeficientes deben ser 0 se obtuvo debido al rango de r . Si el espacio de parámetros hubiera sido finito y con un número de elementos menor o igual que n , sería posible resolver las ecuaciones lineales en g ( t ) obtenidas al sustituir los valores de r y obtener soluciones diferentes de 0. Por ejemplo, si n = 1 y el espacio de parámetros es {0.5}, una sola observación y un solo valor de parámetro, T no está completo. Observe que, con la definición:
entonces, E ( g ( T )) = 0 aunque g ( t ) no es 0 para t = 0 ni para t = 1.
Relación con suficientes estadísticas
Para algunas familias paramétricas, no existe una estadística suficiente completa (por ejemplo, ver Galili y Meilijson 2016 [3] ). Además, no es necesario que exista una estadística mínima suficiente . ( Bahadur mostró un caso en el que no hay una estadística mínima suficiente en 1957. [ cita requerida ] ) En condiciones suaves, siempre existe una estadística mínima suficiente. En particular, estas condiciones siempre se cumplen si las variables aleatorias (asociadas con P θ ) son todas discretas o continuas. [ cita requerida ]
Importancia de la integridad
La noción de completitud tiene muchas aplicaciones en estadística, particularmente en los dos teoremas siguientes de estadística matemática.
Teorema de Lehmann-Scheffé
La completitud ocurre en el teorema de Lehmann-Scheffé , [4] que establece que si un estadístico que es insesgado, completo y suficiente para algún parámetro θ , entonces es el mejor estimador medio insesgado para θ . En otras palabras, esta estadística tiene una pérdida esperada menor para cualquier función de pérdida convexa ; en muchas aplicaciones prácticas con la función de pérdida al cuadrado, tiene un error cuadrático medio más pequeño entre cualquier estimador con el mismo valor esperado .
Existen ejemplos de que cuando la estadística mínima suficiente no está completa , existen varias estadísticas alternativas para la estimación no sesgada de θ , mientras que algunas de ellas tienen una varianza más baja que otras. [5]
Véase también estimador insesgado de varianza mínima .
Teorema de basu
La completitud limitada ocurre en el teorema de Basu , [6] que establece que una estadística que es tanto completa como suficiente delimitada es independiente de cualquier estadística auxiliar .
Teorema de bahadur
La completitud limitada también ocurre en el teorema de Bahadur . En el caso de que exista al menos una estadística mínima suficiente , una estadística que sea suficiente y completa delimitada sea necesariamente mínima suficiente.
Notas
- ^ Young, GA y Smith, RL (2005). Fundamentos de la inferencia estadística. (pág.94). Prensa de la Universidad de Cambridge.
- ^ Casella, G. y Berger, RL (2001). Inferencia estadística. (págs. 285-286). Prensa de Duxbury.
- ↑ Tal Galili & Isaac Meilijson (31 de marzo de 2016). "Un ejemplo de una mejora mejorable de Rao-Blackwell, estimador de máxima verosimilitud ineficiente y estimador de Bayes generalizado imparcial" . El estadístico estadounidense . 70 (1): 108-113. doi : 10.1080 / 00031305.2015.1100683 . PMC 4960505 . PMID 27499547 .Mantenimiento de CS1: utiliza el parámetro de autores ( enlace )
- ^ Casella, George; Berger, Roger L. (2001). Inferencia estadística (2ª ed.). Prensa de Duxbury. ISBN 978-0534243128.
- ^ Tal Galili & Isaac Meilijson (31 de marzo de 2016). "Un ejemplo de una mejora mejorable de Rao-Blackwell, estimador de máxima verosimilitud ineficiente y estimador de Bayes generalizado imparcial" . El estadístico estadounidense . 70 (1): 108-113. doi : 10.1080 / 00031305.2015.1100683 . PMC 4960505 . PMID 27499547 .Mantenimiento de CS1: utiliza el parámetro de autores ( enlace )
- ^ Casella, G. y Berger, RL (2001). Inferencia estadística. (págs. 287). Prensa de Duxbury.
Referencias
- Basu, D. (1988). JK Ghosh (ed.). Información estadística y verosimilitud: colección de ensayos críticos del Dr. D. Basu . Notas de conferencias en estadística. 45 . Saltador. ISBN 978-0-387-96751-6. Señor 0953081 .
- Bickel, Peter J .; Doksum, Kjell A. (2001). Estadística matemática, Volumen 1: Temas básicos y seleccionados (Segundo (impresión actualizada 2007) de la edición de Holden-Day 1976). Pearson Prentice – Hall. ISBN 978-0-13-850363-5. Señor 0443141 .
- EL, Lehmann ; Romano, Joseph P. (2005). Prueba de hipótesis estadísticas . Springer Texts in Statistics (Tercera ed.). Nueva York: Springer. págs. xiv + 784. ISBN 978-0-387-98864-1. Señor 2135927 . Archivado desde el original el 2 de febrero de 2013.
- Lehmann, EL; Scheffé, H. (1950). "Completitud, regiones similares y estimación insesgada. I." Sankhyā: la Revista de Estadísticas de la India . 10 (4): 305–340. doi : 10.1007 / 978-1-4614-1412-4_23 . JSTOR 25048038 . Señor 0039201 .
- Lehmann, EL; Scheffé, H. (1955). "Completitud, regiones similares y estimación imparcial. II" . Sankhyā: The Indian Journal of Statistics . 15 (3): 219-236. doi : 10.1007 / 978-1-4614-1412-4_24 . JSTOR 25048243 . Señor 0072410 .