En estadística , la transformación de Khmaladze es una herramienta matemática que se utiliza para construir pruebas convenientes de bondad de ajuste para funciones de distribución hipotéticas . Más precisamente, supongason observaciones aleatorias iid , posiblemente multidimensionales, generadas a partir de una distribución de probabilidad desconocida . Un problema clásico en estadística es decidir qué tan bien una función de distribución hipotética dada, o una familia paramétrica hipotética dada de funciones de distribución , se ajusta al conjunto de observaciones. La transformación de Khmaladze nos permite construir pruebas de bondad de ajuste con propiedades deseables. Lleva el nombre de Estate V. Khmaladze .
Considere la secuencia de funciones de distribución empírica basado en una secuencia de variables aleatorias iid, , Como n aumenta. Suponeres la función de distribución hipotética de cada. Para probar si la elección de es correcta o no, los estadísticos utilizan la diferencia normalizada,
Esto , como un proceso aleatorio en , se llama proceso empírico . Varios funcionales dese utilizan como estadísticas de prueba. El cambio de la variable, se transforma en el llamado proceso empírico uniforme . Este último es un proceso empírico basado en variables aleatorias independientes, que se distribuyen uniformemente en Si el s de hecho tienen función de distribución .
Este hecho fue descubierto y utilizado por primera vez por Kolmogorov (1933), Wald y Wolfowitz (1936) y Smirnov (1937) y, especialmente después de Doob (1949) y Anderson y Darling (1952), [1] condujo a la regla estándar para elegir estadísticas de prueba basadas en. Es decir, prueba de estadísticas están definidos (que posiblemente dependan de la siendo probado) de tal manera que exista otra estadística derivado del proceso empírico uniforme, de modo que . Ejemplos son
y
Para todos estos funcionales, su distribución nula (bajo el hipotético) no depende de , y se puede calcular una vez y luego usar para probar cualquier .
Sin embargo, es muy raro que uno necesite probar una hipótesis simple, cuando un como se da una hipótesis. Con mucha más frecuencia, es necesario verificar hipótesis paramétricas donde la hipotética, depende de algunos parámetros , que la hipótesis no especifica y que deben estimarse a partir de la muestra sí mismo.
Aunque los estimadores , más comúnmente convergen al valor real de , se descubrió que el proceso empírico paramétrico, [2] [3] o estimado
difiere significativamente de y que el proceso transformado , tiene una distribución para la cual la distribución límite, como , depende de la forma paramétrica de y en el estimador particular y, en general, dentro de una familia paramétrica , sobre el valor de.
Desde mediados de la década de 1950 hasta finales de la de 1980, se trabajó mucho para aclarar la situación y comprender la naturaleza del proceso. .
En 1981, [4] y luego en 1987 y 1993, [5] Khmaladze sugirió reemplazar el proceso empírico paramétrico por su parte de martingala solo.
dónde es el compensador de . Entonces las siguientes propiedades de Fueron establecidas:
- Aunque la forma de , y por tanto, de , depende de , en función de ambos y , la distribución límite del proceso transformado en el tiempo
- es el del movimiento browniano estándar en , es decir, es de nuevo estándar e independiente de la elección de .
- La relación entre y y entre sus límites, es uno a uno, de modo que la inferencia estadística basada en o en son equivalentes, y en , nada se pierde comparado con .
- La construcción de la martingala de la innovación podría trasladarse al caso de valores vectoriales , dando lugar a la definición de las llamadas martingalas de escaneo en .
Durante mucho tiempo, la transformación, aunque conocida, todavía no se utilizó. Más tarde, el trabajo de investigadores como Koenker , Stute , Bai , Koul , Koening y otros lo hizo popular en econometría y otros campos de la estadística. [ cita requerida ]
Ver también
Referencias
- ^ Anderson, TW; Darling, DA (1952). "Teoría asintótica de ciertos criterios de" bondad de ajuste "basados en procesos estocásticos" . Anales de estadística matemática . 23 (2): 193–212. doi : 10.1214 / aoms / 1177729437 .
- ^ Kac, M .; Kiefer, J .; Wolfowitz, J. (1955). "En pruebas de normalidad y otras pruebas de bondad de ajuste basadas en métodos de distancia" . Anales de estadística matemática . 26 (2): 189–211. doi : 10.1214 / aoms / 1177728538 . JSTOR 2236876 .
- ^ Gikhman (1954) [ cita completa necesaria ]
- ^ Khmaladze, EV (1981). "Enfoque martingala en la teoría de las pruebas de bondad de ajuste". Teoría de la probabilidad y sus aplicaciones . 26 (2): 240–257. doi : 10.1137 / 1126027 .
- ^ Khmaladze, EV (1993). "Problemas de bondad de ajuste y escaneo de martingalas de innovación" . Annals of Statistics . 21 (2): 798–829. doi : 10.1214 / aos / 1176349152 . JSTOR 2242262 .
Otras lecturas
- Koul, HL; Swordson, E. (2011). "Transformación Khmaladze". Enciclopedia internacional de ciencia estadística . Saltador. págs. 715–718. doi : 10.1007 / 978-3-642-04898-2_325 . ISBN 978-3-642-04897-5.