En teoría y estadística de probabilidad , la distribución gamma es una familia de dos parámetros de distribuciones de probabilidad continuas . La distribución exponencial , la distribución de Erlang y la distribución de chi-cuadrado son casos especiales de la distribución gamma. Hay dos parametrizaciones diferentes de uso común:
- Con un parámetro de forma k y un parámetro de escala θ .
- Con un parámetro de forma α = k y un parámetro de escala inversa β = 1 / θ , llamado parámetro de tasa .
Función de densidad de probabilidad | |||
Función de distribución acumulativa | |||
Parámetros | |||
---|---|---|---|
Apoyo | |||
CDF | |||
Significar | |||
Mediana | Sin forma simple cerrada | Sin forma simple cerrada | |
Modo | |||
Diferencia | |||
Oblicuidad | |||
Ex. curtosis | |||
Entropía | |||
MGF | |||
CF | |||
Método de los momentos |
En cada una de estas formas, ambos parámetros son números reales positivos.
La distribución gamma es la distribución de probabilidad de entropía máxima (tanto con respecto a una medida base uniforme como con respecto a una medida base 1 / x ) para una variable aleatoria X para la cual E [ X ] = kθ = α / β es fijo y mayor que cero, y E [ln ( X )] = ψ ( k ) + ln ( θ ) = ψ ( α ) - ln ( β ) es fijo ( ψ es la función digamma ). [1]
Definiciones
La parametrización con k y θ parece ser más común en la econometría y algunos otros campos aplicados, donde, por ejemplo, la distribución gamma se usa con frecuencia para modelar los tiempos de espera. Por ejemplo, en las pruebas de vida , el tiempo de espera hasta la muerte es una variable aleatoria que se modela con frecuencia con una distribución gamma. Ver Hogg y Craig [2] para una motivación explícita.
La parametrización con α y β es más común en las estadísticas bayesianas , donde la distribución gamma se usa como una distribución previa conjugada para varios tipos de parámetros de escala inversa (tasa), como el λ de una distribución exponencial o una distribución de Poisson [3] - o para el caso, el β de la distribución gamma en sí. La distribución gamma inversa estrechamente relacionada se utiliza como un conjugado previo para los parámetros de escala, como la varianza de una distribución normal .
Si k es un número entero positivo , entonces la distribución representa una distribución de Erlang ; es decir, la suma de k variables aleatorias independientes distribuidas exponencialmente , cada una de las cuales tiene una media de θ .
Caracterización usando forma α y tasa β
La distribución gamma se puede parametrizar en términos de un parámetro de forma α = k y un parámetro de escala inversa β = 1 / θ , llamado parámetro de tasa . Una variable aleatoria X que tiene distribución gamma con forma α y tasa β se denota
La función de densidad de probabilidad correspondiente en la parametrización de la tasa de forma es
dónde es la función gamma . Para todos los enteros positivos,.
La función de distribución acumulativa es la función gamma regularizada:
dónde es la función gamma incompleta inferior .
Si α es un número entero positivo (es decir, la distribución es una distribución de Erlang ), la función de distribución acumulativa tiene la siguiente expansión en serie: [4]
Caracterización mediante forma k y escala θ
Una variable aleatoria X que tiene distribución gamma con forma k y escala θ se denota por
La función de densidad de probabilidad que utiliza la parametrización de escala de forma es
Aquí Γ ( k ) es la función gamma evaluada en k .
La función de distribución acumulativa es la función gamma regularizada:
dónde es la función gamma incompleta inferior .
También se puede expresar de la siguiente manera, si k es un número entero positivo (es decir, la distribución es una distribución de Erlang ): [4]
Ambas parametrizaciones son comunes porque cualquiera puede ser más conveniente según la situación.
Propiedades
Oblicuidad
La asimetría de la distribución gamma solo depende de su parámetro de forma, k , y es igual a
Aproximaciones y límites de la mediana
A diferencia de la moda y la media, que tienen fórmulas fácilmente calculables basadas en los parámetros, la mediana no tiene una ecuación de forma cerrada. La mediana de esta distribución se define como el valor tal que
Un tratamiento riguroso del problema de determinar una expansión asintótica y límites para la mediana de la distribución gamma fue manejado primero por Chen y Rubin, quienes demostraron que (para )
dónde es la media y es la mediana de la distribución. [5] Para otros valores del parámetro de escala, la media escala a, y los límites y las aproximaciones de la mediana se escalarían de manera similar por .
KP Choi encontró los primeros cinco términos en una aproximación asintótica de la mediana de la serie de Laurent comparando la mediana con la de Ramanujanfunción. [6] Berg y Pedersen encontraron más términos: [7]
Las sumas parciales de estas series son buenas aproximaciones para valores suficientemente altos. ; no están graficados en la figura, que se centra en la baja región que está menos bien aproximada.
Berg y Pedersen también demostraron muchas propiedades de la mediana, demostraron que es una función convexa de , [8] y que el comportamiento asintótico cerca es (dónde es la constante de Euler-Mascheroni ), y que para todos la mediana está limitada por . [7]
Un límite superior lineal más cercano, para sólo, fue proporcionada en 2021 por Gaunt y Merkle, [9] basándose en el resultado de Berg y Pedersen de que la pendiente de es en todas partes menor que 1:
- por (con igualdad en )
que puede extenderse a un límite para todos tomando el máximo con el acorde que se muestra en la figura, ya que la mediana resultó ser convexa. [8]
Una aproximación a la mediana que es asintóticamente precisa en alta y razonable hasta o un poco más bajo se sigue de la transformación de Wilson-Hilferty :
que se vuelve negativo para .
En 2021, Lyon propuso varias aproximaciones de forma cerrada del formulario . Conjeturó valores de forma cerrada de y para lo cual esta aproximación es un límite superior o inferior asintóticamente ajustado para todos . En particular: [10]
- es un límite inferior, asintóticamente apretado como
- es un límite superior, asintóticamente apretado como
Lyon también derivó otros dos límites inferiores que no son expresiones de forma cerrada , incluido este basado en resolver la expresión integral sustituyendo 1 por:
- (acercándose a la igualdad como )
y la recta tangente en donde se encontró que la derivada era :
- (con igualdad en )
donde Ei es la integral exponencial . [10]
Además, mostró que las interpolaciones entre límites pueden proporcionar excelentes aproximaciones o límites más estrictos a la mediana, incluida una aproximación que es exacta en (dónde ) y tiene un error relativo máximo inferior al 0,6%. Las aproximaciones y los límites interpolados son todos de la forma
dónde es una función de interpolación que se ejecuta monótonamente desde 0 a bajo a 1 en alto , aproximándose a un interpolador ideal o exacto :
Para la función de interpolación más simple considerada, una función racional de primer orden
el límite inferior más estrecho tiene
y el límite superior más estrecho tiene
Los límites interpolados se trazan (principalmente dentro de la región amarilla) en el gráfico log-log que se muestra. Los límites aún más estrictos están disponibles usando diferentes funciones de interpolación, pero generalmente no con parámetros de forma cerrada como estos. [10]
Suma
Si X i tiene una distribución Gamma ( k i , θ ) para i = 1, 2, ..., N (es decir, todas las distribuciones tienen el mismo parámetro de escala θ ), entonces
siempre que todos los X i sean independientes .
Para los casos en los que X i son independientes pero tienen diferentes parámetros de escala, consulte Mathai [11] o Moschopoulos. [12]
La distribución gamma exhibe divisibilidad infinita .
Escalada
Si
entonces, para cualquier c > 0,
- por funciones generadoras de momento,
o de manera equivalente, si
- (parametrización de la tasa de forma)
De hecho, sabemos que si X es un rv exponencial con tasa λ entonces cX es un rv exponencial con tasa λ / c ; lo mismo es válido con las variables Gamma (y esto se puede verificar usando la función generadora de momento , ver, por ejemplo, estas notas , 10.4- (ii)): la multiplicación por una constante positiva c divide la tasa (o, de manera equivalente, multiplica la escala).
Familia exponencial
La distribución gamma es una familia exponencial de dos parámetros con parámetros naturales k - 1 y −1 / θ (equivalentemente, α - 1 y - β ), y estadísticas naturales X e ln ( X ).
Si el parámetro de forma k se mantiene fijo, la familia de distribuciones de un parámetro resultante es una familia exponencial natural .
Expectativa y varianza logarítmica
Uno puede demostrar que
o equivalente,
dónde es la función digamma . Igualmente,
dónde es la función trigamma .
Esto se puede derivar usando la fórmula de la familia exponencial para la función generadora de momentos del estadístico suficiente , porque uno de los estadísticos suficientes de la distribución gamma es ln ( x ).
Entropía de la información
La entropía de la información es
En la parametrización k , θ , la entropía de la información viene dada por
Divergencia de Kullback-Leibler
La divergencia Kullback-Leibler ( divergencia KL), de Gamma ( α p , β p ) (distribución "verdadera") de Gamma ( α q , β q ) (distribución "aproximada") viene dada por [13]
Escrito usando la parametrización k , θ , la divergencia KL de Gamma ( k p , θ p ) de Gamma ( k q , θ q ) está dada por
Transformada de Laplace
La transformada de Laplace del PDF gamma es
Distribuciones relacionadas
General
- Dejar ser variables aleatorias independientes e idénticamente distribuidas siguiendo una distribución exponencial con el parámetro de tasa λ, entonces ~ Gamma (n, 1 / λ) donde n es el parámetro de forma y 1 / λ es la escala.
- Si X ~ Gamma (1, 1 / λ) (parametrización de forma-escala), entonces X tiene una distribución exponencial con el parámetro de velocidad λ.
- Si X ~ Gamma (ν / 2, 2) (parametrización de forma-escala), entonces X es idéntico a χ 2 ( ν ), la distribución chi-cuadrado con ν grados de libertad. Por el contrario, si Q ~ χ 2 ( ν ) yc es una constante positiva, entonces cQ ~ Gamma ( ν / 2, 2 c ).
- Si k es un número entero , la distribución gamma es una distribución de Erlang y es la distribución de probabilidad del tiempo de espera hasta la k- ésima "llegada" en un proceso de Poisson unidimensional con intensidad 1 / θ . Si
- luego
- Si X tiene una distribución de Maxwell-Boltzmann con el parámetro a , entonces
- .
- Si X ~ Gamma ( k , θ ), entoncessigue una distribución exponencial-gamma (abreviada exp-gamma). [14] A veces se la denomina distribución log-gamma. [15] Las fórmulas para su media y varianza se encuentran en la sección #Esperanza y varianza logarítmicas .
- Si X ~ Gamma ( k , θ ), entoncessigue una distribución gamma generalizada con parámetros p = 2, d = 2 k , y[ cita requerida ] .
- De manera más general, si X ~ Gamma ( k , θ ), entonces por sigue una distribución gamma generalizada con parámetros p = 1 / q , d = k / q , y.
- Si X ~ Gamma ( k , θ ), entonces 1 / X ~ Inv-Gamma ( k , θ −1 ) (consulte Distribución gamma inversa para la derivación).
- Parametrización 1: Si son independientes, entonces , o equivalente,
- Parametrización 2: Si son independientes, entonces , o equivalente,
- Si X ~ Gamma ( α , θ ) e Y ~ Gamma ( β , θ ) se distribuyen de forma independiente, entonces X / ( X + Y ) tiene una distribución beta con los parámetros α y β , y X / ( X + Y ) es independiente de X + Y , que es Gamma ( α + β , θ ) -distribuido.
- Si X i ~ Gamma ( α i , 1) se distribuyen independientemente, entonces el vector ( X 1 / S , ..., X n / S ), donde S = X 1 + ... + X n , sigue un Dirichlet distribución con parámetros α 1 , ..., α n .
- Para k grande, la distribución gamma converge a la distribución normal con media μ = kθ y varianza σ 2 = kθ 2 .
- La distribución gamma es el conjugado previo para la precisión de la distribución normal con media conocida .
- La distribución de Wishart es una generalización multivariante de la distribución gamma (las muestras son matrices definidas positivas en lugar de números reales positivos).
- La distribución gamma es un caso especial de la distribución gamma generalizada , la distribución gamma entera generalizada y la distribución gaussiana inversa generalizada .
- Entre las distribuciones discretas, la distribución binomial negativa a veces se considera el análogo discreto de la distribución gamma.
- Distribuciones Tweedie : la distribución gamma es un miembro de la familia de modelos de dispersión exponencial Tweedie .
Gama compuesta
Si se conoce el parámetro de forma de la distribución gamma, pero se desconoce el parámetro de escala inversa, entonces una distribución gamma para la escala inversa forma un previo conjugado. La distribución compuesta , que resulta de la integración de la escala inversa, tiene una solución de forma cerrada, conocida como distribución gamma compuesta . [dieciséis]
Si en lugar del parámetro de forma se conoce, pero la media es desconocido, con el antes del ser media dada por otra distribución gamma, entonces resulta en K-distribución .
Inferencia estadística
Estimación de parámetros
Estimación de máxima verosimilitud
La función de verosimilitud para las observaciones N iid ( x 1 , ..., x N ) es
a partir del cual calculamos la función logarítmica de verosimilitud
Encontrar el máximo con respecto a θ tomando la derivada y estableciéndola igual a cero produce el estimador de máxima verosimilitud del parámetro θ :
Sustituyendo esto en la función logarítmica de verosimilitud se obtiene
Encontrar el máximo con respecto a k tomando la derivada y estableciéndola igual a cero produce
donde ψ es la función digamma . No existe una solución de forma cerrada para k . La función se comporta muy bien numéricamente, por lo que si se desea una solución numérica, se puede encontrar utilizando, por ejemplo, el método de Newton . Un valor inicial de k se puede encontrar usando el método de momentos o usando la aproximación
Si dejamos
entonces k es aproximadamente
que está dentro del 1,5% del valor correcto. [17] Una forma explícita para la actualización de Newton-Raphson de esta suposición inicial es: [18]
Estimadores de forma cerrada
Existen estimadores de forma cerrada coherentes de k y θ que se derivan de la probabilidad de la distribución gamma generalizada . [19]
La estimación de la forma k es
y la estimación de la escala θ es
Si se utiliza la parametrización de la tasa, la estimación de .
Estos estimadores no son estrictamente estimadores de máxima verosimilitud, sino que se denominan estimadores de momento logarítmico de tipo mixto. Sin embargo, tienen una eficiencia similar a la de los estimadores de máxima verosimilitud.
Aunque estos estimadores son consistentes, tienen un pequeño sesgo. Una variante corregida por sesgo del estimador para la escala θ es
Una corrección de sesgo para el parámetro de forma k se da como [20]
Error cuadrático medio mínimo bayesiano
Con k conocido y desconocido θ , la función de densidad posterior para theta (usando la escala estándar invariante antes de θ ) es
Denotando
La integración con respecto a θ se puede realizar mediante un cambio de variables, revelando que 1 / θ tiene distribución gamma con parámetros α = Nk , β = y .
Los momentos se pueden calcular tomando la razón ( m por m = 0)
lo que muestra que la media ± desviación estándar estimada de la distribución posterior para θ es
Inferencia bayesiana
Conjugado previo
En la inferencia bayesiana , la distribución gamma es el conjugado anterior a muchas distribuciones de verosimilitud: Poisson , exponencial , normal (con media conocida), Pareto , gamma con forma conocida σ , gamma inversa con parámetro de forma conocido y Gompertz con parámetro de escala conocido.
El conjugado previo de la distribución gamma es: [21]
donde Z es la constante de normalización, que no tiene una solución de forma cerrada. La distribución posterior se puede encontrar actualizando los parámetros de la siguiente manera:
donde n es el número de observaciones y x i es la i- ésima observación.
Ocurrencia y aplicaciones
La distribución gamma se ha utilizado para modelar el tamaño de las reclamaciones de seguros [22] y las precipitaciones. [23] Esto significa que las reclamaciones de seguros agregadas y la cantidad de lluvia acumulada en un embalse se modelan mediante un proceso gamma , al igual que la distribución exponencial genera un proceso de Poisson .
La distribución gamma también se utiliza para modelar errores en modelos de regresión de Poisson multinivel , porque una mezcla de distribuciones de Poisson con tasas distribuidas gamma tiene una distribución de forma cerrada conocida, denominada binomial negativa .
En la comunicación inalámbrica, la distribución gamma se utiliza para modelar el desvanecimiento de la potencia de la señal por múltiples rutas ; [ cita requerida ] ver también distribución de Rayleigh y distribución de Rician .
En oncología , la distribución por edades de la incidencia de cáncer a menudo sigue la distribución gamma, mientras que los parámetros de forma y escala predicen, respectivamente, el número de eventos impulsores y el intervalo de tiempo entre ellos. [24]
En neurociencia , la distribución gamma se usa a menudo para describir la distribución de intervalos entre picos . [25] [26]
En la expresión génica bacteriana , el número de copias de una proteína expresada constitutivamente a menudo sigue la distribución gamma, donde el parámetro de escala y forma son, respectivamente, el número medio de explosiones por ciclo celular y el número medio de moléculas de proteína producidas por un solo ARNm durante su vida. [27]
En genómica , la distribución gamma se aplicó en el paso de llamada de pico (es decir, en el reconocimiento de la señal) en el análisis de datos de ChIP-chip [28] y ChIP-seq [29] .
La distribución gamma se usa ampliamente como un previo conjugado en la estadística bayesiana. Es el conjugado previo para la precisión (es decir, inversa de la varianza) de una distribución normal . También es el conjugado previo de la distribución exponencial .
Generación de variables aleatorias con distribución gamma
Dada la propiedad de escala anterior, es suficiente generar variables gamma con θ = 1, ya que luego podemos convertir a cualquier valor de β con una división simple.
Supongamos que deseamos generar variables aleatorias a partir de Gamma ( n + δ , 1), donde n es un número entero no negativo y 0 < δ <1. Usando el hecho de que una distribución Gamma (1, 1) es lo mismo que una Exp (1) distribución, y observando el método de generar variables exponenciales , concluimos que si U se distribuye uniformemente en (0, 1], entonces −ln ( U ) se distribuye Gamma (1, 1) (es decir, muestreo por transformada inversa ). Ahora, usando la propiedad de "adición α " de la distribución gamma, expandimos este resultado:
donde U k están todos uniformemente distribuidos en (0, 1] e independientes . Todo lo que queda ahora es generar una variable distribuida como Gamma ( δ , 1) para 0 < δ <1 y aplicar la propiedad " α -addition" una vez más. Esta es la parte más difícil.
Devroye, [30] : 401–428 analiza en detalle la generación aleatoria de variantes gamma y señala que ninguna es uniformemente rápida para todos los parámetros de forma. Para valores pequeños del parámetro de forma, los algoritmos a menudo no son válidos. [30] : 406 Para valores arbitrarios del parámetro de forma, se puede aplicar el método de aceptación-rechazo modificado de Ahrens y Dieter [31] , el algoritmo GD (forma k ≥ 1), o el método de transformación [32] cuando 0 < k <1. Consulte también el algoritmo de Cheng y Feast GKM 3 [33] o el método de compresión de Marsaglia. [34]
La siguiente es una versión del método de aceptación-rechazo de Ahrens-Dieter : [31]
- Genere U , V y W como variantes uniformes de iid (0, 1].
- Si luego y . De lo contrario, y .
- Si luego vaya al paso 1.
- ξ se distribuye como Γ ( δ , 1).
Un resumen de esto es
dónde es la parte entera de k , ξ se genera mediante el algoritmo anterior con δ = { k } (la parte fraccionaria de k ) y U k son todas independientes.
Si bien el enfoque anterior es técnicamente correcto, Devroye señala que es lineal en el valor de k y, en general, no es una buena opción. En su lugar, recomienda utilizar métodos basados en el rechazo o en tablas, según el contexto. [30] : 401–428
Por ejemplo, el método simple de transformación-rechazo de Marsaglia que se basa en una variable normal X y una variable uniforme U : [35]
- Colocar y .
- Colocar .
- Si y regreso , de lo contrario, vuelva al paso 2.
Con genera un número aleatorio distribuido en gamma en el tiempo que es aproximadamente constante con k . La tasa de aceptación depende de k , con una tasa de aceptación de 0,95, 0,98 y 0,99 para k = 1, 2 y 4. Para k <1, se puede utilizarpara aumentar k para que sea utilizable con este método.
Notas
- ^ Park, Sung Y .; Bera, Anil K. (2009). "Modelo de heterocedasticidad condicional autorregresiva de máxima entropía" (PDF) . Revista de Econometría . 150 (2): 219–230. CiteSeerX 10.1.1.511.9750 . doi : 10.1016 / j.jeconom.2008.12.014 . Archivado desde el original (PDF) el 7 de marzo de 2016 . Consultado el 2 de junio de 2011 .
- ^ Hogg, RV ; Craig, AT (1978). Introducción a la estadística matemática (4ª ed.). Nueva York: Macmillan. pp. Observación 3.3.1. ISBN 0023557109.
- ^ Recomendación escalable con factorización de Poisson , Prem Gopalan, Jake M. Hofman, David Blei , arXiv.org 2014
- ^ a b Papoulis, Pillai, probabilidad, variables aleatorias y procesos estocásticos , cuarta edición
- ^ Jeesen Chen, Herman Rubin , Límites de la diferencia entre la mediana y la media de las distribuciones gamma y de Poisson, Estadísticas y cartas de probabilidad, volumen 4, número 6, octubre de 1986, páginas 281-283, ISSN 0167-7152 , [1] .
- ^ Choi, KP "Sobre las medianas de las distribuciones gamma y una ecuación de Ramanujan" , Actas de la American Mathematical Society, vol. 121, No. 1 (mayo de 1994), págs. 245-251.
- ^ a b Berg, Christian y Pedersen, Henrik L. (marzo de 2006). "La conjetura de Chen-Rubin en un escenario continuo" (PDF) . Métodos y aplicaciones de análisis . 13 (1): 63–88. doi : 10.4310 / MAA.2006.v13.n1.a4 . S2CID 6704865 . Consultado el 1 de abril de 2020 .
- ^ a b Berg, Christian y Pedersen, Henrik L. "Convexidad de la mediana en la distribución gamma" .
- ^ Gaunt, Robert E. y Milan Merkle (2021). "En límites para la moda y la mediana de las distribuciones hiperbólicas generalizadas y relacionadas". Revista de Análisis y Aplicaciones Matemáticas . 493 (1): 124508.CS1 maint: varios nombres: lista de autores ( enlace )
- ^ a b c Lyon, Richard F. (13 de mayo de 2021). "En límites estrechos de forma cerrada y aproximaciones para la mediana de una distribución gamma" . PLOS One . Consultado el 13 de mayo de 2021 .
- ^ Mathai, AM (1982). "Capacidad de almacenamiento de una presa con entradas tipo gamma". Anales del Instituto de Matemática Estadística . 34 (3): 591–597. doi : 10.1007 / BF02481056 . ISSN 0020-3157 . S2CID 122537756 .
- ^ Moschopoulos, PG (1985). "La distribución de la suma de variables aleatorias gamma independientes". Anales del Instituto de Matemática Estadística . 37 (3): 541–544. doi : 10.1007 / BF02481123 . S2CID 120066454 .
- ^ WD Penny, [www.fil.ion.ucl.ac.uk/~wpenny/publications/densities.ps KL-Divergences of Normal, Gamma, Dirichlet y Wishart densities] [ se necesita una cita completa ]
- ^ https://reference.wolfram.com/language/ref/ExpGammaDistribution.html
- ^ https://docs.scipy.org/doc/scipy/reference/generated/scipy.stats.loggamma.html#scipy.stats.loggamma
- ^ Dubey, Satya D. (diciembre de 1970). "Distribuciones compuestas gamma, beta y F". Metrika . 16 : 27–31. doi : 10.1007 / BF02613934 . S2CID 123366328 .
- ^ Minka, Thomas P. (2002). "Estimación de una distribución Gamma" (PDF) . Cite journal requiere
|journal=
( ayuda ) - ^ Choi, SC; Wette, R. (1969). "Estimación de máxima verosimilitud de los parámetros de la distribución gamma y su sesgo". Tecnometría . 11 (4): 683–690. doi : 10.1080 / 00401706.1969.10490731 .
- ^ Zhi-Sheng Ye y Nan Chen (2017) Estimadores de forma cerrada para la distribución gamma derivada de ecuaciones de verosimilitud The American Statistician, 71: 2, 177-181
- ^ Francisco Louzada, Pedro L. Ramos, Eduardo Ramos. (2019) Una nota sobre el sesgo de los estimadores de forma cerrada para la distribución gamma derivada de las ecuaciones de verosimilitud . The American Statistician 73: 2, páginas 195-199.
- ^ Fink, D. 1995 Un compendio de anteriores conjugados . Informe de progreso: Ampliación y mejora de métodos para establecer objetivos de calidad de datos. (Contrato DOE 95‑831).
- ^ p. 43, Philip J. Boland, Métodos estadísticos y probabilísticos en ciencia actuarial, Chapman & Hall CRC 2007
- ^ Aksoy, H. (2000) "Uso de distribución gamma en análisis hidrológico" , Turk J. Engin Environ Sci , 24, 419 - 428.
- ^ Belikov, Aleksey V. (22 de septiembre de 2017). "El número de eventos cancerígenos clave se puede predecir a partir de la incidencia del cáncer" . Informes científicos . 7 (1): 12170. doi : 10.1038 / s41598-017-12448-7 . PMC 5610194 . PMID 28939880 .
- ^ JG Robson y JB Troy, "Naturaleza de la descarga mantenida de las células ganglionares retinianas Q, X e Y del gato", J. Opt. Soc. Soy. A 4, 2301-2307 (1987)
- ^ MCM Wright, IM Winter, JJ Forster, S. Bleeck "La respuesta a las ráfagas de tono de la mejor frecuencia en el núcleo coclear ventral se rige por las estadísticas ordenadas del intervalo entre picos", Hearing Research 317 (2014)
- ^ N. Friedman, L. Cai y XS Xie (2006) "Vinculación de la dinámica estocástica con la distribución de la población: un marco analítico de expresión génica", Phys. Rev. Lett. 97, 168302.
- ^ DJ Reiss, MT Facciotti y NS Baliga (2008) " Deconvolución basada en modelos de la unión del ADN en todo el genoma" , Bioinformática , 24, 396–403
- ^ MA Mendoza-Parra, M Nowicka, W Van Gool, H Gronemeyer (2013) "Caracterización de patrones de unión de ChIP-seq por deconvolución de forma de pico basada en modelo" , BMC Genomics , 14: 834
- ^ a b c Devroye, Luc (1986). Generación variable aleatoria no uniforme . Nueva York: Springer-Verlag. ISBN 978-0-387-96305-1. Consulte el Capítulo 9, Sección 3.
- ^ a b Ahrens, JH; Dieter, U (enero de 1982). "Generación de variaciones gamma mediante una técnica de rechazo modificada". Comunicaciones de la ACM . 25 (1): 47–54. doi : 10.1145 / 358315.358390 . S2CID 15128188 .. Ver algoritmo GD, p. 53.
- ^ Ahrens, JH; Dieter, U. (1974). "Métodos informáticos para el muestreo de distribuciones gamma, beta, Poisson y binomial". Computación . 12 (3): 223–246. CiteSeerX 10.1.1.93.3828 . doi : 10.1007 / BF02293108 . S2CID 37484126 .
- ^ Cheng, RCH y Feast, GM Algunos generadores de variantes gamma simples. Apl. Stat. 28 (1979), 290-295.
- ^ Marsaglia, G. El método de compresión para generar variaciones gamma. Computación, Matemáticas. Apl. 3 (1977), 321-325.
- ^ Marsaglia, G .; Tsang, WW (2000). "Un método sencillo para generar variables gamma". Transacciones ACM en software matemático . 26 (3): 363–372. doi : 10.1145 / 358407.358414 . S2CID 2634158 .
enlaces externos
- "Distribución gamma" , Enciclopedia de Matemáticas , EMS Press , 2001 [1994]
- Weisstein, Eric W. "Distribución gamma" . MathWorld .
- ModelAssist (2017) Usos de la distribución gamma en el modelado de riesgos, incluidos ejemplos aplicados en Excel .
- Manual de estadísticas de ingeniería