En la teoría de la probabilidad , la distribución gaussiana inversa (también conocida como distribución de Wald ) es una familia de dos parámetros de distribuciones de probabilidad continuas con apoyo en (0, ∞).
Función de densidad de probabilidad | |||
Función de distribución acumulativa | |||
Notación | |||
---|---|---|---|
Parámetros | | ||
Apoyo | |||
CDF | dónde es la distribución normal estándar (gaussiana estándar) cdf | ||
Significar | | ||
Modo | |||
Diferencia | | ||
Oblicuidad | |||
Ex. curtosis | |||
MGF | |||
CF |
Su función de densidad de probabilidad está dada por
para x > 0, donde es la media y es el parámetro de forma. [1]
La distribución gaussiana inversa tiene varias propiedades análogas a una distribución gaussiana. El nombre puede ser engañoso: es un "inverso" solo en que, mientras que el gaussiano describe el nivel de un movimiento browniano en un tiempo fijo, el gaussiano inverso describe la distribución del tiempo que un movimiento browniano con deriva positiva tarda en alcanzar un nivel positivo fijo. nivel.
Su función generadora acumulativa (logaritmo de la función característica) es la inversa de la función generadora acumulativa de una variable aleatoria gaussiana.
Para indicar que una variable aleatoria X tiene distribución gaussiana inversa con media μ y parámetro de forma λ escribimos.
Propiedades
Formulario de parámetro único
La función de densidad de probabilidad (pdf) de la distribución gaussiana inversa tiene una forma de parámetro único dada por
De esta forma, la media y la varianza de la distribución son iguales,
Además, la función de distribución acumulada (CDF) de la distribución gaussiana inversa de un solo parámetro está relacionada con la distribución normal estándar por
dónde y donde el es la CDF de distribución normal estándar. Las variables y están relacionados entre sí por la identidad
En la forma de parámetro único, el MGF se simplifica a
Una distribución gaussiana inversa en forma de doble parámetro se puede transformar en un formulario de un solo parámetro por escala apropiada dónde
La forma estándar de distribución gaussiana inversa es
Suma
Si X tengo undistribución para i = 1, 2, ..., ny todos X i son independientes , entonces
Tenga en cuenta que
es constante para todo i . Esta es una condición necesaria para la suma. De lo contrario, S no tendría una distribución gaussiana inversa.
Escalada
Para cualquier t > 0 se sostiene que
Familia exponencial
La distribución gaussiana inversa es una de dos parámetros familia exponencial con parámetros naturales - λ / (2 μ 2 ) y - λ / 2, y estadísticas naturales X y 1 / X .
Relación con el movimiento browniano
Sea el proceso estocástico X t dado por
donde W t es un movimiento browniano estándar . Es decir, X t es un movimiento browniano con deriva.
Luego, el primer tiempo de paso para un nivel fijo.por X t se distribuye de acuerdo a un inverso-gaussiano:
es decir
(cf. Ecuación 19 de Schrödinger [2] , Smoluchowski [3] , ecuación 8, y Folks [4] , ecuación 1).
Derivación de la distribución del tiempo de primer paso |
---|
Supongamos que tenemos un movimiento browniano con deriva definido por: Y supongamos que deseamos encontrar la función de densidad de probabilidad para el momento en que el proceso golpea por primera vez alguna barrera- conocido como el primer paso del tiempo. La ecuación de Fokker-Planck que describe la evolución de la distribución de probabilidad es: dónde es la función delta de Dirac . Este es un problema de valor límite (BVP) con una sola condición de límite absorbente, que puede resolverse mediante el método de imágenes . Con base en la condición inicial, la solución fundamental de la ecuación de Fokker-Planck, denotada por, es: Definir un punto , tal que . Esto permitirá que las soluciones original y espejo se cancelen exactamente en la barrera en cada instante. Esto implica que la condición inicial debe aumentarse para convertirse en: dónde es una constante. Debido a la linealidad del BVP, la solución a la ecuación de Fokker-Planck con esta condición inicial es: Ahora debemos determinar el valor de . La condición de contorno de absorción total implica que: A , tenemos eso . Sustituyendo esto nuevamente en la ecuación anterior, encontramos que: Por lo tanto, la solución completa para el BVP es: Ahora que tenemos la función de densidad de probabilidad completa, estamos listos para encontrar la primera distribución del tiempo de paso. . La ruta más simple es calcular primero la función de supervivencia , que se define como: dónde es la función de distribución acumulada de la distribución normal estándar . La función de supervivencia nos da la probabilidad de que el proceso de movimiento browniano no haya cruzado la barrera. en algún momento . Finalmente, la primera distribución del tiempo de paso se obtiene de la identidad: Asumiendo que , el primer paso del tiempo sigue una distribución gaussiana inversa: |
Cuando la deriva es cero
Un caso especial común de lo anterior surge cuando el movimiento browniano no tiene deriva. En ese caso, el parámetro μ tiende a infinito, y el primer tiempo de paso para el nivel fijo α tiene una función de densidad de probabilidad
(ver también Bachelier [5] : 74 [6] : 39 ). Esta es una distribución de Lévy con parámetros y .
Máxima verosimilitud
El modelo donde
con todo w i conocido, ( μ , λ ) desconocido y todo X i independiente tiene la siguiente función de verosimilitud
Resolver la ecuación de verosimilitud produce las siguientes estimaciones de máxima verosimilitud
y son independientes y
Muestreo de una distribución gaussiana inversa
Se puede utilizar el siguiente algoritmo. [7]
Genere una variable aleatoria a partir de una distribución normal con media 0 y desviación estándar igual a 1
Cuadrar el valor
y usa la relación
Genere otra variante aleatoria, esta vez muestreada a partir de una distribución uniforme entre 0 y 1
Si entonces regresa si no regresa
Código de muestra en Java :
pública doble inverseGaussian ( dobles mu , doble lambda ) { aleatoria rand = nueva Random (); doble v = rand . nextGaussian (); // Muestra de una distribución normal con una media de 0 y 1 desviación estándar double y = v * v ; doble x = mu + ( mu * mu * y ) / ( 2 * lambda ) - ( mu / ( 2 * lambda )) * Math . sqrt ( 4 * mu * lambda * y + mu * mu * y * y ); prueba doble = rand . nextDouble (); // Muestra de una distribución uniforme entre 0 y 1 if ( test <= ( mu ) / ( mu + x )) return x ; si no, return ( mu * mu ) / x ; }
Y para trazar la distribución de Wald en Python usando matplotlib y NumPy :
importar matplotlib.pyplot como plt importar numpy como nph = plt . hist ( np . random . wald ( 3 , 2 , 100000 ), bins = 200 , densidad = True )plt . mostrar ()
Distribuciones relacionadas
La convolución de una distribución gaussiana inversa (una distribución de Wald) y una exponencial (una distribución ex-Wald) se utiliza como modelo para los tiempos de respuesta en psicología, [9] con la búsqueda visual como un ejemplo. [10]
Historia
Esta distribución parece haber sido derivada por primera vez en 1900 por Louis Bachelier [5] [6] cuando una acción alcanza un cierto precio por primera vez. En 1915 fue utilizado independientemente por Erwin Schrödinger [2] y Marian v. Smoluchowski [3] como el momento para el primer paso de un movimiento browniano. En el campo del modelado de la reproducción se conoce como función de Hadwiger, en honor a Hugo Hadwiger, quien la describió en 1940. [11] Abraham Wald volvió a derivar esta distribución en 1944 [12] como la forma limitante de una muestra en una razón de probabilidad secuencial. prueba. El nombre gaussiano inverso fue propuesto por Maurice Tweedie en 1945. [13] Tweedie investigó esta distribución en 1956 [14] y 1957 [15] [16] y estableció algunas de sus propiedades estadísticas. La distribución fue ampliamente revisada por Folks y Chhikara en 1978. [4]
Computación numérica y software
A pesar de la fórmula simple para la función de densidad de probabilidad, los cálculos de probabilidad numérica para la distribución gaussiana inversa requieren un cuidado especial para lograr una precisión de máquina completa en aritmética de coma flotante para todos los valores de los parámetros. [17] Las funciones para la distribución gaussiana inversa se proporcionan para el lenguaje de programación R mediante varios paquetes que incluyen rmutil, [18] [19] SuppDists, [20] STAR, [21] invGauss, [22] LaplacesDemon, [23] y statmod . [24]
Ver también
- Distribución gaussiana inversa generalizada
- Distribuciones Tweedie: la distribución gaussiana inversa es un miembro de la familia de modelos de dispersión exponencial Tweedie.
- Detener el tiempo
Referencias
- ^ a b Chhikara, Raj S .; Folks, J. Leroy (1989), The Inverse Gaussian Distribution: Theory, Methodology and Applications , Nueva York, NY, EE. UU .: Marcel Dekker, Inc, ISBN 0-8247-7997-5
- ^ a b Schrödinger, Erwin (1915), "Zur Theorie der Fall- und Steigversuche an Teilchen mit Brownscher Bewegung" [Sobre la teoría de los experimentos de caída y subida en partículas con movimiento browniano], Physikalische Zeitschrift (en alemán), 16 (16): 289–295
- ^ a b Smoluchowski, Marian (1915), "Notiz über die Berechnung der Brownschen Molekularbewegung bei der Ehrenhaft-Millikanschen Versuchsanordnung" [Nota sobre el cálculo de browniano Molecular movimiento en la Ehrenhaft-Millikan experimental], Physikalische Zeitschrift (en alemán), 16 (17/18): 318–321
- ^ a b Gente, J. Leroy; Chhikara, Raj S. (1978), "La distribución gaussiana inversa y su aplicación estadística: una revisión", Revista de la Royal Statistical Society , Serie B (metodológica), 40 (3): 263-275, doi : 10.1111 / j .2517-6161.1978.tb01039.x , JSTOR 2984691
- ^ a b Bachelier, Louis (1900), "Théorie de la spéculation" [La teoría de la especulación] (PDF) , Ann. Sci. CE. Norma. Súper. (en francés), Serie 3, 17: 21–89, doi : 10.24033 / asens.476
- ^ a b Bachelier, Louis (1900), "La teoría de la especulación" , Ann. Sci. CE. Norma. Súper. , Serie 3, 17: 21–89 (traducción al inglés de David R. May, 2011), doi : 10.24033 / asens.476
- ^ Michael, John R .; Schucany, William R .; Haas, Roy W. (1976), "Generación de variables aleatorias mediante transformaciones con múltiples raíces", The American Statistician , 30 (2): 88–90, doi : 10.1080 / 00031305.1976.10479147 , JSTOR 2683801
- ^ Shuster, J. (1968). "Sobre la función de distribución gaussiana inversa". Revista de la Asociación Estadounidense de Estadística . 63 (4): 1514-1516. doi : 10.1080 / 01621459.1968.10480942 .
- ^ Schwarz, Wolfgang (2001), "La distribución ex-Wald como modelo descriptivo de tiempos de respuesta", Behavior Research Methods, Instruments, and Computers , 33 (4): 457–469, doi : 10.3758 / bf03195403 , PMID 11816448
- ^ Palmer, EM; Horowitz, TS; Torralba, A .; Wolfe, JM (2011). "¿Cuáles son las formas de las distribuciones del tiempo de respuesta en la búsqueda visual?" . Revista de psicología experimental: percepción y rendimiento humanos . 37 (1): 58–71. doi : 10.1037 / a0020747 . PMC 3062635 . PMID 21090905 .
- ^ Hadwiger, H. (1940). "Eine analytische Reproduktionsfunktion für biologische Gesamtheiten". Skandinavisk Aktuarietidskrijt . 7 (3-4): 101-113. doi : 10.1080 / 03461238.1940.10404802 .
- ^ Wald, Abraham (1944), "On Cumulative Sums of Random Variables", Annals of Mathematical Statistics , 15 (3): 283-296, doi : 10.1214 / aoms / 1177731235 , JSTOR 2236250
- ^ Tweedie, MCK (1945). "Variables estadísticas inversas" . Naturaleza . 155 (3937): 453. Código Bibliográfico : 1945Natur.155..453T . doi : 10.1038 / 155453a0 . S2CID 4113244 .
- ^ Tweedie, MCK (1956). "Algunas propiedades estadísticas de distribuciones gaussianas inversas". Revista de Ciencias de Virginia . Series nuevas. 7 (3): 160-165.
- ^ Tweedie, MCK (1957). "Propiedades estadísticas de distribuciones gaussianas inversas I" . Anales de estadística matemática . 28 (2): 362–377. doi : 10.1214 / aoms / 1177706964 . JSTOR 2237158 .
- ^ Tweedie, MCK (1957). "Propiedades estadísticas de distribuciones gaussianas inversas II". Anales de estadística matemática . 28 (3): 696–705. doi : 10.1214 / aoms / 1177706881 . JSTOR 2237229 .
- ^ Giner, Göknur; Smyth, Gordon (agosto de 2016). "statmod: cálculos de probabilidad para la distribución gaussiana inversa" . The R Journal . 8 (1): 339–351. arXiv : 1603.06687 . doi : 10.32614 / RJ-2016-024 .
- ^ Lindsey, James (9 de septiembre de 2013). "rmutil: utilidades para modelos de regresión no lineal y medidas repetidas" .
- ^ Swihart, Bruce; Lindsey, James (4 de marzo de 2019). "rmutil: utilidades para modelos de regresión no lineal y medidas repetidas" .
- ^ Wheeler, Robert (23 de septiembre de 2016). "SuppDists: distribuciones complementarias" .
- ^ Pouzat, Christophe (19 de febrero de 2015). "ESTRELLA: Análisis de tren de picos con R" .
- ^ Gjessing, Hakon K. (29 de marzo de 2014). "Regresión de umbral que se ajusta a la distribución gaussiana inversa (deriva aleatoria) a los datos de supervivencia" .
- ^ Hall, Byron; Hall, Martina; Statisticat, LLC; Brown, Eric; Hermanson, Richard; Charpentier, Emmanuel; Diablos, Daniel; Laurent, Stephane; Gronau, Quentin F .; Singmann, Henrik (29 de marzo de 2014). "LaplacesDemon: entorno completo para inferencia bayesiana" .
- ^ Giner, Göknur; Smyth, Gordon (18 de junio de 2017). "statmod: Modelado estadístico" .
Otras lecturas
- Høyland, Arnljot ; Rausand, Marvin (1994). Teoría de la confiabilidad del sistema . Nueva York: Wiley. ISBN 978-0-471-59397-3.
- Seshadri, V. (1993). La distribución gaussiana inversa . Prensa de la Universidad de Oxford. ISBN 978-0-19-852243-0.
enlaces externos
- Distribución gaussiana inversa en el sitio web de Wolfram.