Distribución beta


para α , β > 1

cualquier valor para α , β = 1

En teoría de probabilidad y estadística , la distribución beta es una familia de distribuciones de probabilidad continuas definidas en el intervalo [0, 1] parametrizadas por dos parámetros de forma positivos , denotados por α y β , que aparecen como exponentes de la variable aleatoria y controlan la forma. de la distribución. La generalización a múltiples variables se llama distribución de Dirichlet .

La distribución beta se ha aplicado para modelar el comportamiento de variables aleatorias limitadas a intervalos de longitud finita en una amplia variedad de disciplinas.

En la inferencia bayesiana , la distribución beta es la distribución de probabilidad previa conjugada para las distribuciones de Bernoulli , binomial , binomial negativa y geométrica . La distribución beta es un modelo adecuado para el comportamiento aleatorio de porcentajes y proporciones.


Una animación de la distribución Beta para diferentes valores de sus parámetros.
CDF para distribución beta simétrica frente a xα  =  β
CDF para distribución beta asimétrica frente a xβ  = 5 α
Modo de distribución Beta para 1 ≤ α ≤ 5 y 1 ≤ β ≤ 5
Mediana de la distribución Beta para 0 ≤ α ≤ 5 y 0 ≤ β ≤ 5
(Media-Mediana) para la distribución Beta versus alfa y beta de 0 a 2
Media de la distribución Beta para 0 ≤ α ≤ 5 y 0 ≤ β ≤ 5
(Media - GeometricMean) para la distribución Beta versus α y β de 0 a 2, mostrando la asimetría entre α y β para la media geométrica
Medias geométricas para la distribución Beta Púrpura = G ( x ), Amarillo = G (1 -  x ), valores más pequeños α y β al frente
Medias geométricas para distribución Beta. violeta = G ( x ), amarillo = G (1 -  x ), valores mayores α y β al frente
Media armónica de la distribución beta para 0 <  α  <5 y 0 <  β  <5
Media armónica de la distribución beta frente a α y β de 0 a 2
Medios armónicos para la distribución beta Púrpura = H ( X ), Amarillo = H (1 -  X ), valores menores α y β al frente
Medios armónicos para la distribución Beta Púrpura = H ( X ), Amarillo = H (1 -  X ), valores mayores α y β al frente
log varianzas geométricas vs. α y β
log varianzas geométricas vs. α y β
Razón de Media Abs.Dev. a Std.Dev. para la distribución Beta con α y β que van de 0 a 5
Razón de Media Abs.Dev. a Std.Dev. para distribución Beta con media 0 ≤ μ ≤ 1 y tamaño de muestra 0 <ν ≤ 10
Asimetría de la distribución beta en función de la varianza y la media
Exceso de curtosis para la distribución beta en función de la varianza y la media
Re (función característica) caso simétrico α = β entre 25 y 0
Re (función característica) caso simétrico α = β entre 0 y 25
Re (función característica) β = α + 1/2; α que va de 25 a 0
Re (función característica) α = β + 1/2; β que van de 25 a 0
Re (función característica) α = β + 1/2; β que van de 0 a 25
Gráfico de logit ( X ) = ln ( X / (1− X )) (eje vertical) frente a X en el dominio de 0 a 1 (eje horizontal). Las transformaciones logit son interesantes, ya que generalmente transforman varias formas (incluidas las formas en J) en densidades en forma de campana (generalmente sesgadas) sobre la variable logit, y pueden eliminar las singularidades finales sobre la variable original
: Media, mediana, media geométrica y media armónica para la distribución Beta con 0 <α = β <5
Distribución beta parámetros α y β frente a exceso de curtosis y asimetría al cuadrado
Ubicación del punto de inflexión versus α y β que muestran regiones con un punto de inflexión
Ubicación del punto de inflexión versus α y β que muestran la región con dos puntos de inflexión
PDF para distribución beta simétrica frente a x y α  =  β de 0 a 30
PDF para distribución beta simétrica frente a x y α  =  β de 0 a 2
PDF para distribución beta asimétrica frente a x y β  = 2,5 α de 0 a 9
PDF para distribución beta asimétrica frente a x y β  = 5,5 α de 0 a 9
PDF para distribución beta asimétrica frente a x y β  = 8 α de 0 a 10
Ejemplo de ocho realizaciones de una caminata aleatoria en una dimensión a partir de 0: la probabilidad para el tiempo de la última visita al origen se distribuye como Beta (1/2, 1/2)
Beta (1/2, 1/2): Harold Jeffreys propuso la densidad de probabilidad de distribución de arcoseno para representar la incertidumbre de una distribución de Bernoulli o binomial en la inferencia bayesiana , y ahora se la conoce comúnmente como Jeffreys antes : p −1/2 (1 -  p ) −1/2 . Esta distribución también aparece en varios teoremas fundamentales de caminata aleatoria.
Soluciones para estimaciones de parámetros frente a (muestra) exceso de curtosis y distribución Beta de sesgo (muestra) al cuadrado
Máx. (Probabilidad logarítmica conjunta / N ) para los máximos de distribución beta en α  =  β  = 2
Máx. (Probabilidad logarítmica conjunta / N ) para los máximos de distribución Beta en α  =  β  ∈ {0.25,0.5,1,2,4,6,8}
Información de Fisher I ( a , a ) para α  =  β frente al rango ( c  -  a ) y exponente  α  =  β
Información de Fisher I ( α , a ) para α  =  β , frente al rango ( c  -  a ) y exponente α  =  β
: La distribución uniforme de densidad de probabilidad fue propuesto por Thomas Bayes para representar la ignorancia de probabilidades previas en Bayesiano inferencia . No , no describir un estado de completa ignorancia, pero el estado del conocimiento en el que hemos observado al menos un éxito y un fracaso, y por lo tanto tenemos conocimiento previo de que ambos estados son físicamente posibles .
: La probabilidad previa de Haldane que expresa ignorancia total sobre la información previa, donde ni siquiera estamos seguros de si es físicamente posible que un experimento arroje un éxito o un fracaso. Cuando α, β → 0, la distribución beta se aproxima a una distribución de Bernoulli de dos puntos con toda la densidad de probabilidad concentrada en cada extremo, en 0 y 1, y nada en el medio. Un lanzamiento de moneda: una cara de la moneda está en 0 y la otra cara en 1.
Probabilidad previa de Jeffreys para la distribución beta: la raíz cuadrada del determinante de la matriz de información de Fisher : es una función de la función trigamma ψ 1 de los parámetros de forma α, β
Densidades Beta posteriores con muestras que tienen éxito = "s", falla = "f" de s / ( s + f ) = 1/2, y s + f = {3,10,50}, basadas en 3 funciones de probabilidad previas diferentes : Haldane (Beta (0,0), Jeffreys (Beta (1 / 2,1 / 2)) y Bayes (Beta (1,1)). La imagen muestra que hay poca diferencia entre los anteriores para el posterior con muestra tamaño de 50 (con un pico más pronunciado cerca de p  = 1/2). Aparecen diferencias significativas para tamaños de muestra muy pequeños (la distribución más plana para un tamaño de muestra de 3)
Densidades Beta posteriores con muestras que tienen éxito = "s", falla = "f" de s / ( s + f ) = 1/4, y s + f ∈ {3,10,50}, basadas en tres funciones de probabilidad previas diferentes : Haldane (Beta (0,0), Jeffreys (Beta (1 / 2,1 / 2)) y Bayes (Beta (1,1)). La imagen muestra que hay poca diferencia entre los anteriores para el posterior con muestra tamaño de 50 (con un pico más pronunciado cerca de p = 1/4). Aparecen diferencias significativas para tamaños de muestra muy pequeños (la distribución muy sesgada para el caso degenerado de tamaño de muestra = 3, en este caso degenerado e improbable, los resultados anteriores de Haldane en una forma de "J" inversa con modo en p  = 0 en lugar de p = 1/4. Si hay suficientes datos de muestreo , los tres a priori de Bayes (Beta (1,1)), Jeffreys (Beta (1 / 2,1 / 2)) y Haldane (Beta (0,0)) deberían producir densidades de probabilidad posteriores similares .
Densidades Beta posteriores con muestras que tienen éxito = s , falla = f de s / ( s + f ) = 1/4, y s + f ∈ {4,12,40}, basadas en tres funciones de probabilidad previas diferentes: Haldane (Beta (0,0), Jeffreys (Beta (1 / 2,1 / 2)) y Bayes (Beta (1,1)). La imagen muestra que hay poca diferencia entre los anteriores para el posterior con un tamaño de muestra de 40 ( con un pico más pronunciado cerca de p  = 1/4). Aparecen diferencias significativas para tamaños de muestra muy pequeños
Karl Pearson analizó la distribución beta como la solución Tipo I de distribuciones de Pearson