En estadística , un parámetro de molestia es cualquier parámetro que no es de interés inmediato pero que debe tenerse en cuenta en el análisis de aquellos parámetros que son de interés. El ejemplo clásico de un parámetro de molestia es la varianza , σ 2 , de una distribución normal , cuando la media , μ , es de interés principal. [ cita requerida ] Otro ejemplo podría ser la regresión lineal con incertidumbre en la variable exploratoria, la variable independiente puede verse como un parámetro molesto que debe abordarse para obtener una estimación precisa de la pendiente. Verdilución de regresión .
Los parámetros molestos son a menudo variaciones, pero no siempre; por ejemplo , en los modelos de errores en las variables , la ubicación real desconocida de cada observación es un parámetro molesto. En general, cualquier parámetro que interfiera en el análisis de otro puede considerarse un parámetro molesto. Un parámetro también puede dejar de ser una "molestia" si se convierte en objeto de estudio, como puede ser la varianza de una distribución.
Estadística teórica
El tratamiento general de los parámetros de molestia puede ser muy similar entre los enfoques frecuentista y bayesiano de la estadística teórica. Se basa en un intento de dividir la función de verosimilitud en componentes que representan información sobre los parámetros de interés e información sobre los otros parámetros (molestos). Esto puede implicar ideas sobre estadísticas suficientes y estadísticas auxiliares . Cuando se pueda lograr esta partición, será posible completar un análisis bayesiano de los parámetros de interés determinando algebraicamente su distribución posterior conjunta. La partición permite que la teoría frecuentista desarrolle enfoques generales de estimación en presencia de parámetros molestos. Si no se puede lograr la partición, es posible que aún sea posible utilizar una partición aproximada.
En algunos casos especiales, es posible formular métodos que eviten la presencia de parámetros molestos. La prueba t proporciona una prueba prácticamente útil porque el estadístico de la prueba no depende de la varianza desconocida. Es un caso en el que se puede hacer uso de una cantidad fundamental . Sin embargo, en otros casos no se conoce tal elusión.
Estadísticas prácticas
Los enfoques prácticos del análisis estadístico tratan los parámetros molestos de manera algo diferente en las metodologías frecuentista y bayesiana.
Un enfoque general en un análisis frecuentista puede basarse en pruebas de razón de máxima verosimilitud . Estos proporcionan tanto pruebas de significación como intervalos de confianza para los parámetros de interés que son aproximadamente válidos para tamaños de muestra moderados a grandes y que tienen en cuenta la presencia de parámetros molestos. Véase Basu (1977) para una discusión general y Spall y Garner (1990) para alguna discusión relativa a la identificación de parámetros en modelos dinámicos lineales (es decir, representación del espacio de estados ).
En el análisis bayesiano , un enfoque de aplicación general crea muestras aleatorias a partir de la distribución posterior conjunta de todos los parámetros: consulte la cadena de Markov Monte Carlo . Dados estos, la distribución conjunta de sólo los parámetros de interés se puede encontrar fácilmente marginando los parámetros molestos. Sin embargo, este enfoque puede no ser siempre eficiente desde el punto de vista computacional si algunos o todos los parámetros molestos pueden eliminarse sobre una base teórica.
Ver también
Referencias
- Basu, D. (1977), "Sobre la eliminación de parámetros molestos", Revista de la Asociación Estadounidense de Estadística , vol. 77, págs. 355–366. doi : 10.1080 / 01621459.1977.10481002
- Bernardo, JM, Smith, AFM (2000) Teoría Bayesiana . Wiley. ISBN 0-471-49464-X
- Cox, DR, Hinkley, DV (1974) Estadísticas teóricas . Chapman y Hall. ISBN 0-412-12420-3
- Spall, JC y Garner, JP (1990), “Identificación de parámetros para modelos de espacio de estados con parámetros molestos”, Transacciones IEEE sobre sistemas electrónicos y aeroespaciales , vol. 26 (6), págs. 992–998.
- Young, GA, Smith, RL (2005) Fundamentos de la inferencia estadística , CUP. ISBN 0-521-83971-8