De Wikipedia, la enciclopedia libre
Saltar a navegación Saltar a búsqueda

En estadística, un estimador insesgado de varianza mínima (MVUE) o un estimador insesgado de varianza mínima uniforme (UMVUE) es un estimador insesgado que tiene una varianza más baja que cualquier otro estimador insesgado para todos los valores posibles del parámetro.

Para problemas de estadística práctica, es importante determinar el MVUE, si existe, ya que los procedimientos menos que óptimos se evitarían naturalmente, en igualdad de condiciones. Esto ha llevado a un desarrollo sustancial de la teoría estadística relacionada con el problema de la estimación óptima.

Si bien la combinación de la restricción del sesgo con la métrica de deseabilidad de la menor varianza conduce a buenos resultados en la mayoría de los entornos prácticos, lo que hace que MVUE sea un punto de partida natural para una amplia gama de análisis, una especificación dirigida puede funcionar mejor para un problema dado; por lo tanto, MVUE no siempre es el mejor punto de parada.

Definición [ editar ]

Considere la estimación de iid basada en datos de algún miembro de una familia de densidades , donde está el espacio de parámetros. Un estimador insesgado de es UMVUE si ,

para cualquier otro estimador insesgado

Si existe un estimador insesgado de , entonces se puede probar que existe un MVUE esencialmente único. [1] Utilizando el teorema de Rao-Blackwell también se puede probar que determinar el MVUE es simplemente una cuestión de encontrar una estadística suficiente completa para la familia y condicionar cualquier estimador insesgado en ella.

Además, según el teorema de Lehmann-Scheffé , un estimador insesgado que es función de una estadística completa y suficiente es el estimador UMVUE.

Dicho formalmente, suponga que no es sesgado para , y esa es una estadística suficiente completa para la familia de densidades. Luego

es el MVUE para

Un análogo bayesiano es un estimador de Bayes , particularmente con error cuadrático medio mínimo (MMSE).

Selección de estimador [ editar ]

No es necesario que exista un estimador eficiente , pero si existe y si es insesgado, es el MVUE. Dado que el error cuadrático medio (MSE) de un estimador δ es

el MVUE minimiza el MSE entre los estimadores insesgados . En algunos casos, los estimadores sesgados tienen un MSE más bajo porque tienen una varianza menor que cualquier estimador insesgado; ver sesgo del estimador .

Ejemplo [ editar ]

Considere los datos a ser una sola observación de una distribución absolutamente continua en con densidad

y deseamos encontrar el estimador UMVU de

Primero reconocemos que la densidad se puede escribir como

Que es una familia exponencial con estadística suficiente . De hecho, esta es una familia exponencial de rango completo y, por lo tanto, es suficiente. Ver familia exponencial para una derivación que muestra

Por lo tanto,

Aquí usamos el teorema de Lehmann-Scheffé para obtener el MVUE

Claramente es insesgado y es lo suficientemente completo, por lo que el estimador UMVU es

Este ejemplo ilustra que una función insesgada del estadístico suficiente completo será UMVU, como establece el teorema de Lehmann-Scheffé .

Otros ejemplos [ editar ]

  • Para una distribución normal con media y varianza desconocida, la media de la muestra y (imparcial) varianza de la muestra son los MVUEs para la población media y la varianza de la población.
    Sin embargo, la desviación estándar de la muestra no es insesgada para la desviación estándar de la población; consulte la estimación insesgada de la desviación estándar .
    Además, para otras distribuciones, la media muestral y la varianza muestral no son en general MVUE; para una distribución uniforme con límites superior e inferior desconocidos, el rango medio es el MVUE para la media poblacional.
  • Si se eligen k ejemplares (sin reemplazo) de una distribución uniforme discreta sobre el conjunto {1, 2, ...,  N } con límite superior desconocido N , el MVUE para N es
donde m es el máximo de la muestra . Esta es una transformada escalada y desplazada (tan insesgada) del máximo de la muestra, que es una estadística suficiente y completa. Consulte el problema del tanque alemán para obtener más detalles.

Ver también [ editar ]

  • Mejor estimador lineal insesgado (AZUL)
  • Compensación entre sesgo y varianza
  • Teorema de Lehmann-Scheffé
  • Estadística U

Análogos bayesianos [ editar ]

  • Estimador de Bayes
  • Error cuadrático medio mínimo (MMSE)

Referencias [ editar ]

  1. ^ Lee, AJ, 1946- (1990). Estadística U: teoría y práctica . Nueva York: M. Dekker. ISBN 0824782534. OCLC  21523971 .CS1 maint: multiple names: authors list (link)
  • Keener, Robert W. (2006). Teoría estadística: apuntes para un curso de estadística teórica . Saltador. págs. 47–48, 57–58.
  • Voinov VG, Nikulin MS (1993). Estimadores insesgados y sus aplicaciones, Vol.1: Caso univariante . Editores académicos de Kluwer. págs. 521 pág.