En estadística , el método delta es un resultado relativo a la distribución de probabilidad aproximada para una función de un estimador estadístico asintóticamente normal a partir del conocimiento de la varianza límite de ese estimador.
Historia
El método delta se derivó de la propagación del error , y la idea subyacente se conoció a principios del siglo XIX. [1] Su aplicación estadística se remonta a 1928 por TL Kelley . [2] JL Doob presentó una descripción formal del método en 1935. [3] Robert Dorfman también describió una versión del mismo en 1938. [4]
Método delta univariado
Si bien el método delta se generaliza fácilmente a un entorno multivariado, la motivación cuidadosa de la técnica se demuestra más fácilmente en términos univariados. Aproximadamente, si hay una secuencia de variables aleatorias X n que satisfacen
donde θ y σ 2 son constantes de valores finitos ydenota convergencia en la distribución , entonces
para cualquier función g que satisfaga la propiedad de que g ′ ( θ ) existe y tiene un valor distinto de cero.
Prueba en el caso univariado
La demostración de este resultado es bastante sencilla bajo el supuesto de que g ′ ( θ ) es continua . Para comenzar, usamos el teorema del valor medio (es decir, la aproximación de primer orden de una serie de Taylor usando el teorema de Taylor ):
dónde se encuentra entre X n y θ . Tenga en cuenta que desde y , debe ser eso y dado que g ′ ( θ ) es continuo, aplicando el teorema de mapeo continuo se obtiene
dónde denota convergencia en probabilidad .
Reordenando los términos y multiplicando por da
Desde
Por supuesto, se sigue inmediatamente de la apelación al teorema de Slutsky de que
Con esto concluye la prueba.
Prueba con un orden explícito de aproximación.
Alternativamente, se puede agregar un paso más al final, para obtener el orden de aproximación :
Esto sugiere que el error en la aproximación converge a 0 en probabilidad.
Método delta multivariado
Por definición, un estimador B consistente converge en probabilidad a su valor verdadero β , y a menudo se puede aplicar un teorema del límite central para obtener la normalidad asintótica :
donde n es el número de observaciones y Σ es una matriz de covarianza (simétrica positiva semidefinida). Supongamos que queremos estimar la varianza de una función escalar de valor h del estimador B . Manteniendo solo los dos primeros términos de la serie de Taylor y usando la notación vectorial para el gradiente , podemos estimar h (B) como
lo que implica que la varianza de h (B) es aproximadamente
Se puede usar el teorema del valor medio (para funciones de valor real de muchas variables) para ver que esto no depende de tomar una aproximación de primer orden.
Por tanto, el método delta implica que
o en términos univariados,
Ejemplo: la proporción binomial
Supongamos que X n es binomial con parámetrosy n . Desde
podemos aplicar el método Delta con g ( θ ) = log ( θ ) para ver
Por tanto, aunque para cualquier n finito , la varianza deno existe realmente (ya que X n puede ser cero), la varianza asintótica de existe y es igual a
Tenga en cuenta que desde p> 0 , como , entonces con probabilidad convergiendo a uno, es finito para n grande .
Además, si y son estimaciones de diferentes tarifas de grupo a partir de muestras independientes de tamaños n y m , respectivamente, a continuación, el logaritmo de la estimación del riesgo relativo tiene una varianza asintótica igual a
Esto es útil para construir una prueba de hipótesis o para hacer un intervalo de confianza para el riesgo relativo.
Forma alternativa
El método delta se usa a menudo en una forma que es esencialmente idéntica a la anterior, pero sin la suposición de que X n o B es asintóticamente normal. A menudo, el único contexto es que la variación es "pequeña". Entonces, los resultados solo dan aproximaciones a las medias y covarianzas de las cantidades transformadas. Por ejemplo, las fórmulas presentadas en Klein (1953, p. 258) son: [5]
donde h r es el r -ésimo elemento de h ( B ) y B i es el i -ésimo elemento de B .
Método delta de segundo orden
Cuando g ′ ( θ ) = 0 no se puede aplicar el método delta. Sin embargo, si g ′ ′ ( θ ) existe y no es cero, se puede aplicar el método delta de segundo orden. Por la expansión de Taylor,, de modo que la varianza de depende hasta el cuarto momento de .
El método delta de segundo orden también es útil para realizar una aproximación más precisa de Distribución de cuando el tamaño de la muestra es pequeño. . Por ejemplo, cuando sigue la distribución normal estándar, se puede aproximar como la suma ponderada de una normal estándar y un chi-cuadrado con un grado de libertad de 1.
Ver también
Referencias
- ^ Portnoy, Stephen (2013). "Carta al editor". El estadístico estadounidense . 67 (3): 190-190. doi : 10.1080 / 00031305.2013.820668 .
- ^ Kelley, Truman L. (1928). Encrucijada en la mente del hombre: un estudio de habilidades mentales diferenciables . págs. 49–50. ISBN 978-1-4338-0048-1.
- ^ Doob, JL (1935). "Las distribuciones limitantes de ciertas estadísticas" . Anales de estadística matemática . 6 : 160-169. doi : 10.1214 / aoms / 1177732594 . JSTOR 2957546 .
- ^ Ver Hoef, JM (2012). "¿Quién inventó el método delta?". El estadístico estadounidense . 66 (2): 124-127. doi : 10.1080 / 00031305.2012.687494 . JSTOR 23339471 .
- ^ Klein, LR (1953). Un libro de texto de econometría . pag. 258.
Otras lecturas
- Oehlert, GW (1992). "Una nota sobre el método Delta". El estadístico estadounidense . 46 (1): 27-29. doi : 10.1080 / 00031305.1992.10475842 . JSTOR 2684406 .
- Wolter, Kirk M. (1985). "Métodos de la serie Taylor" . Introducción a la estimación de la varianza . Nueva York: Springer. págs. 221–247. ISBN 0-387-96119-4.
enlaces externos
- Asmussen, Søren (2005). "Algunas aplicaciones del método Delta" (PDF) . Apuntes de conferencias . Universidad de Aarhus.
- Feiveson, Alan H. "Explicación del método delta" . Stata Corp.
- Xu, Jun; Long, J. Scott (22 de agosto de 2005). "Uso del método Delta para construir intervalos de confianza para probabilidades pronosticadas, tasas y cambios discretos" (PDF) . Apuntes de conferencias . Universidad de Indiana.