De Wikipedia, la enciclopedia libre
  (Redirigido desde Estimación de distancia mínima )
Saltar a navegación Saltar a búsqueda

La estimación de distancia mínima ( MDE ) es un método conceptual para ajustar un modelo estadístico a los datos, generalmente la distribución empírica . Los estimadores de uso frecuente, como los mínimos cuadrados ordinarios, pueden considerarse casos especiales de estimación de distancia mínima.

Si bien son consistentes y asintóticamente normales , los estimadores de distancia mínima generalmente no son estadísticamente eficientes en comparación con los estimadores de máxima verosimilitud , porque omiten el jacobiano generalmente presente en la función de verosimilitud . Sin embargo, esto reduce sustancialmente la complejidad computacional del problema de optimización.

Definición [ editar ]

Sea una muestra aleatoria independiente e idénticamente distribuida (iid) de una población con distribución y .

Sea la función de distribución empírica basada en la muestra.

Sea un estimador de . Entonces es un estimador de .

Sea un funcional que devuelve alguna medida de "distancia" entre los dos argumentos . La función también se denomina función de criterio.

Si existe tal que , entonces se llama estimación de distancia mínima de .

( Drossos y Philippou 1980 , p. 121)

Estadísticas utilizadas en la estimación [ editar ]

La mayoría de los estudios teóricos de estimación de distancia mínima, y ​​la mayoría de las aplicaciones, utilizan medidas de "distancia" que subyacen a las pruebas de bondad de ajuste ya establecidas : la estadística de prueba utilizada en una de estas pruebas se utiliza como medida de distancia a minimizar. A continuación se muestran algunos ejemplos de pruebas estadísticas que se han utilizado para la estimación de la distancia mínima.

Criterio de chi-cuadrado [ editar ]

La prueba de chi-cuadrado utiliza como criterio la suma, sobre grupos predefinidos, de la diferencia al cuadrado entre los incrementos de la distribución empírica y la distribución estimada, ponderada por el incremento de la estimación para ese grupo.

Criterio de Cramér – von Mises [ editar ]

El criterio de Cramér-von Mises utiliza la integral de la diferencia al cuadrado entre las funciones de distribución empírica y estimada ( Parr y Schucany 1980 , p. 616).

Criterio de Kolmogorov-Smirnov [ editar ]

La prueba de Kolmogorov-Smirnov utiliza el supremo de la diferencia absoluta entre las funciones de distribución empírica y estimada ( Parr y Schucany 1980 , p. 616).

Criterio de Anderson-Darling [ editar ]

La prueba de Anderson-Darling es similar al criterio de Cramér-von Mises excepto que la integral es una versión ponderada de la diferencia al cuadrado, donde la ponderación relaciona la varianza de la función de distribución empírica ( Parr y Schucany 1980 , p. 616).

Resultados teóricos [ editar ]

La teoría de la estimación de distancia mínima está relacionada con la de la distribución asintótica de las correspondientes pruebas estadísticas de bondad de ajuste . A menudo, los casos del criterio de Cramér-von Mises , la prueba de Kolmogorov-Smirnov y la prueba de Anderson-Darling se tratan simultáneamente como casos especiales de una formulación más general de una medida de distancia. Ejemplos de los resultados teóricos disponibles son: consistencia de las estimaciones de los parámetros; las matrices de covarianza asintóticas de las estimaciones de los parámetros.

Ver también [ editar ]

  • Estimación de máxima verosimilitud
  • Estimación de espaciado máximo

Referencias [ editar ]

  • Boos, Dennis D. (1982). "Estimación mínima de Anderson-Darling". Comunicaciones en estadística: teoría y métodos . 11 (24): 2747–2774. doi : 10.1080 / 03610928208828420 . S2CID  119812213 .
  • Blyth, Colin R. (junio de 1970). "Sobre los modelos de inferencia y decisión de la estadística" . Los Anales de Estadística Matemática . 41 (3): 1034–1058. doi : 10.1214 / aoms / 1177696980 .
  • Drossos, Constantine A .; Philippou, Andreas N. (diciembre de 1980). "Una nota sobre estimaciones de distancia mínima". Anales del Instituto de Matemática Estadística . 32 (1): 121-123. doi : 10.1007 / BF02480318 . S2CID  120207485 .
  • Parr, William C .; Schucany, William R. (1980). "Distancia mínima y estimación robusta". Revista de la Asociación Estadounidense de Estadística . 75 (371): 616–624. CiteSeerX  10.1.1.878.5446 . doi : 10.1080 / 01621459.1980.10477522 . JSTOR  2287658 .CS1 maint: ref=harv (link)
  • Wolfowitz, J. (marzo de 1957). "El método de la distancia mínima" . Los Anales de Estadística Matemática . 28 (1): 75–88. doi : 10.1214 / aoms / 1177707038 .