En estadística , la estimación puntual implica el uso de datos de muestra para calcular un valor único (conocido como estimación puntual, ya que identifica un punto en algún espacio de parámetros ) que debe servir como una "mejor estimación" o "mejor estimación" de una incógnita. parámetro de población (por ejemplo, la media de la población ). Más formalmente, es la aplicación de un estimador puntual a los datos para obtener una estimación puntual.
La estimación puntual se puede contrastar con la estimación de intervalo : tales estimaciones de intervalo suelen ser intervalos de confianza , en el caso de la inferencia frecuentista , o intervalos creíbles , en el caso de la inferencia bayesiana .
Estimadores puntuales
Existe una variedad de estimadores puntuales, cada uno con diferentes propiedades.
- estimador de media insesgada de varianza mínima (MVUE), minimiza el riesgo (pérdida esperada) de la función de pérdida de error cuadrado .
- mejor estimador lineal insesgado (AZUL)
- error cuadrático medio mínimo (MMSE)
- estimador de mediana insesgado , minimiza el riesgo de la función de pérdida de error absoluto
- estimador de máxima verosimilitud (MLE)
- método de momentos y método generalizado de momentos
Estimación de puntos bayesianos
La inferencia bayesiana se basa típicamente en la distribución posterior . Muchos estimadores puntuales bayesianos son los estadísticos de tendencia central de la distribución posterior , por ejemplo, su media, mediana o moda:
- Media posterior , que minimiza el riesgo (posterior) (pérdida esperada) para una función de pérdida de error al cuadrado ; en la estimación bayesiana, el riesgo se define en términos de la distribución posterior, según lo observado por Gauss . [1]
- Mediana posterior , que minimiza el riesgo posterior de la función de pérdida de valor absoluto, como observó Laplace . [1] [2]
- máximo a posteriori ( MAP ), que encuentra un máximo de la distribución posterior; para una probabilidad previa uniforme, el estimador MAP coincide con el estimador de máxima verosimilitud;
El estimador MAP tiene buenas propiedades asintóticas, incluso para muchos problemas difíciles, en los que el estimador de máxima verosimilitud tiene dificultades. Para problemas regulares, donde el estimador de máxima verosimilitud es consistente, el estimador de máxima verosimilitud finalmente concuerda con el estimador MAP. [3] [4] [5] Los estimadores bayesianos son admisibles , según el teorema de Wald. [4] [6]
El estimador puntual de longitud mínima de mensaje ( MML ) se basa en la teoría de la información bayesiana y no está tan directamente relacionado con la distribución posterior .
Los casos especiales de filtros bayesianos son importantes:
- Filtro de Kalman
- Filtro de salchicha
Varios métodos de estadística computacional tienen estrechas conexiones con el análisis bayesiano:
- Filtro de partículas
- Cadena de Markov Monte Carlo (MCMC)
Propiedades de las estimaciones puntuales
- sesgo de un estimador
- Con destino a Cramér – Rao
Ver también
- Inferencia algorítmica
- Inducción (filosofía)
- Filosofía de la estadística
- Inferencia predictiva
- Estimación de rango
Notas
- ↑ a b Dodge, Yadolah , ed. (1987). Análisis de datos estadísticos basado en la norma L1 y métodos relacionados: artículos de la Primera Conferencia Internacional celebrada en Neuchâtel, del 31 de agosto al 4 de septiembre de 1987 . Editorial de Holanda Septentrional .
- ^ Jaynes, ET (2007). Teoría de la probabilidad: La lógica de la ciencia (5. ed. Impresa). Prensa de la Universidad de Cambridge . pag. 172. ISBN 978-0-521-59271-0.
- ^ Ferguson, Thomas S. (1996). Un curso de teoría de muestras grandes . Chapman y Hall . ISBN 0-412-04371-8.
- ^ a b Le Cam, Lucien (1986). Métodos asintóticos en la teoría de la decisión estadística . Springer-Verlag . ISBN 0-387-96307-3.
- ^ Ferguson, Thomas S. (1982). "Una estimación de máxima verosimilitud inconsistente". Revista de la Asociación Estadounidense de Estadística . 77 (380): 831–834. doi : 10.1080 / 01621459.1982.10477894 . JSTOR 2287314 .
- ^ Lehmann, EL ; Casella, G. (1998). Teoría de la estimación puntual (2ª ed.). Saltador. ISBN 0-387-98502-6.
Bibliografía
- Bickel, Peter J. y Doksum, Kjell A. (2001). Estadística matemática: temas básicos y seleccionados . I (Segunda edición (impresión actualizada 2007)). Pearson Prentice-Hall.
- Liese, Friedrich y Miescke, Klaus-J. (2008). Teoría de la decisión estadística: estimación, prueba y selección . Saltador.