En teoría de la probabilidad y estadísticas , el binomio distribución con parámetros n y p es la distribución de probabilidad discreta del número de éxitos en una secuencia de n independientes experimentos , preguntando a cada una si-no pregunta , y cada uno con su propia booleana -valued resultado : éxito (con probabilidad p ) o fracaso (con probabilidad q = 1 - p ). Un solo experimento de éxito / fracaso también se denominaEnsayo de Bernoulli o experimento de Bernoulli, y una secuencia de resultados se denomina proceso de Bernoulli ; para un solo ensayo, es decir, n = 1, la distribución binomial es una distribución de Bernoulli . La distribución binomial es la base de la popular prueba binomial de significación estadística .
Función de probabilidad | |||
Función de distribución acumulativa | |||
Notación | |||
---|---|---|---|
Parámetros | - número de intentos - probabilidad de éxito para cada ensayo | ||
Apoyo | - número de éxitos | ||
PMF | |||
CDF | |||
Significar | |||
Mediana | o | ||
Modo | o | ||
Diferencia | |||
Oblicuidad | |||
Ex. curtosis | |||
Entropía | en shannons . Para los nat , use el registro natural en el registro. | ||
MGF | |||
CF | |||
PGF | |||
Información de Fisher | (para fijo ) |
La distribución binomial con frecuencia se utiliza para modelar el número de éxitos en una muestra de tamaño n dibujado con el reemplazo de una población de tamaño N . Si el muestreo se realiza sin reemplazo, los extractos no son independientes y, por lo tanto, la distribución resultante es una distribución hipergeométrica , no binomial. Sin embargo, para N mucho más grande que n , la distribución binomial sigue siendo una buena aproximación y se usa ampliamente.
Definiciones
Función de probabilidad
En general, si la variable aleatoria X sigue la distribución binomial con parámetros n ∈ ℕ y p ∈ [0,1], escribimos X ~ B ( n , p ). La probabilidad de obtener exactamente k éxitos en n ensayos de Bernoulli independientes está dada por la función de probabilidad de masa :
para k = 0, 1, 2, ..., n , donde
es el coeficiente binomial , de ahí el nombre de la distribución. La fórmula se puede entender de la siguiente manera: k los éxitos ocurren con probabilidad p k y n - k fallas ocurren con probabilidad (1 - p ) n - k . Sin embargo, los k éxitos pueden ocurrir en cualquier lugar entre los n ensayos, y haydiferentes formas de distribuir k éxitos en una secuencia de n ensayos.
Al crear tablas de referencia para la probabilidad de distribución binomial, generalmente la tabla se completa hasta n / 2 valores. Esto se debe a que para k > n / 2, la probabilidad se puede calcular mediante su complemento como
Mirando la expresión f ( k , n , p ) como una función de k , hay un valor de k que la maximiza. Este valor k se puede encontrar calculando
y comparándolo con 1. Siempre hay un entero M que satisface [1]
f ( k , n , p ) es monótono creciente para k < M y monótono decreciente para k > M , con la excepción del caso donde ( n + 1) p es un número entero. En este caso, hay dos valores para los cuales f es máxima: ( n + 1) p y ( n + 1) p - 1. M es el resultado más probable (es decir, el más probable, aunque todavía puede ser poco probable en general) de los ensayos de Bernoulli y se llama el modo .
Ejemplo
Suponga que una moneda sesgada sale cara con probabilidad de 0.3 cuando se lanza. La probabilidad de ver exactamente 4 caras en 6 lanzamientos es
Función de distribución acumulativa
La función de distribución acumulativa se puede expresar como:
dónde es el "piso" debajo de k , es decir, el mayor número entero menor o igual que k .
También se puede representar en términos de la función beta incompleta regularizada , de la siguiente manera: [2]
que es equivalente a la función de distribución acumulativa de la F -Distribución : [3]
A continuación se dan algunos límites de forma cerrada para la función de distribución acumulativa .
Propiedades
Valor esperado y varianza
Si X ~ B ( n , p ), es decir, X es una variable aleatoria distribuida binomialmente, siendo n el número total de experimentos yp la probabilidad de que cada experimento dé un resultado exitoso, entonces el valor esperado de X es: [4 ]
Esto se deriva de la linealidad del valor esperado junto con el hecho de que X es la suma de n variables aleatorias de Bernoulli idénticas, cada una con un valor esperado p . En otras palabras, sison variables aleatorias de Bernoulli idénticas (e independientes) con el parámetro p , entonces y
La varianza es:
De manera similar, esto se deriva del hecho de que la varianza de una suma de variables aleatorias independientes es la suma de las varianzas.
Momentos superiores
Los primeros 6 momentos centrales , definidos como, son dadas por
Los momentos no centrales satisfacen
y en general
dónde son los números de Stirling del segundo tipo , y es el th poder descendente de. Un límite simple [5] sigue al delimitar los momentos binomiales a través de los momentos de Poisson superiores :
Modo
Por lo general, la moda de una distribución binomial B ( n , p ) es igual a, dónde es la función de piso . Sin embargo, cuando ( n + 1) p es un número entero yp no es ni 0 ni 1, entonces la distribución tiene dos modos: ( n + 1) py ( n + 1) p - 1. Cuando p es igual a 0 o 1, el modo será 0 y n correspondientemente. Estos casos se pueden resumir de la siguiente manera:
Prueba: dejar
Para solo tiene un valor distinto de cero con . Para encontramos y por . Esto prueba que el modo es 0 para y por .
Dejar . Encontramos
- .
De esto se sigue
Así que cuando es un número entero, entonces y es un modo. En el caso de que, entonces solo es un modo. [6]
Mediana
En general, no existe una fórmula única para encontrar la mediana de una distribución binomial, e incluso puede que no sea única. Sin embargo, se han establecido varios resultados especiales:
- Si np es un número entero, entonces la media, la mediana y la moda coinciden y son iguales a np . [7] [8]
- Cualquier mediana m debe estar dentro del intervalo ⌊ np ⌋ ≤ m ≤ ⌈ np ⌉. [9]
- Una mediana m no puede estar demasiado lejos de la media: | m - np | ≤ min {ln 2, max { p , 1 - p } }. [10]
- La mediana es única e igual a m = round ( np ) cuando | m - np | ≤ min { p , 1 - p } (excepto en el caso en que p = 1/2y n es impar). [9]
- Cuando p es un número racional (con la excepción de p = 1/2 yn impar), la mediana es única. [11]
- Cuando p = 1/2 y n es impar, cualquier número m en el intervalo 1/2( n - 1) ≤ m ≤ 1/2( n + 1) es una mediana de la distribución binomial. Si p = 1/2 y n es par, entonces m = n / 2 es la mediana única.
Límites de cola
Para k ≤ np , los límites superiores se pueden derivar para la cola inferior de la función de distribución acumulativa, la probabilidad de que haya como máximo k éxitos. Desde, estos límites también pueden verse como límites para la cola superior de la función de distribución acumulativa para k ≥ np .
La desigualdad de Hoeffding produce el límite simple
que sin embargo no es muy apretado. En particular, para p = 1, tenemos que F ( k ; n , p ) = 0 (para k fijo , n con k < n ), pero el límite de Hoeffding se evalúa como una constante positiva.
Se puede obtener un límite más agudo a partir del límite de Chernoff : [12]
donde D ( a || p ) es la entropía relativa (o divergencia Kullback-Leibler) entre una moneda a y una moneda p (es decir, entre la distribución de Bernoulli ( a ) y Bernoulli ( p )):
Asintóticamente, este límite es razonablemente estrecho; consulte [12] para obtener más detalles.
También se pueden obtener límites inferiores en la cola., conocidos como límites anti-concentración. Aproximando el coeficiente binomial con la fórmula de Stirling se puede demostrar que [13]
lo que implica el límite más simple pero más flexible
Para p = 1/2 y k ≥ 3 n / 8 para n par , es posible hacer que el denominador sea constante: [14]
Inferencia estadística
Estimación de parámetros
Cuando se conoce n , el parámetro p se puede estimar utilizando la proporción de éxitos:Este estimador se encuentra utilizando el estimador de máxima verosimilitud y también el método de momentos . Este estimador es insesgado y uniforme con varianza mínima , probado mediante el teorema de Lehmann-Scheffé , ya que se basa en una estadística mínima suficiente y completa (es decir: x ). También es consistente tanto en probabilidad como en MSE .
También existe un estimador de Bayes de forma cerrada para p cuando se usa la distribución Beta como una distribución previa conjugada . Cuando se usa un generalcomo a priori, el estimador medio posterior es:. El estimador de Bayes es asintóticamente eficiente y cuando el tamaño de la muestra se acerca al infinito ( n → ∞), se acerca a la solución MLE . El estimador de Bayes está sesgado (cuánto depende de los anteriores), admisible y consistente en probabilidad.
Para el caso especial de utilizar la distribución uniforme estándar como una previa no informativa (), el estimador medio posterior se convierte en (un modo posterior debería conducir al estimador estándar). Este método se llama regla de sucesión , que fue introducido en el siglo XVIII por Pierre-Simon Laplace .
Al estimar p con eventos muy raros y una n pequeña (por ejemplo: si x = 0), entonces el uso del estimador estándar conduce aque a veces es poco realista e indeseable. En tales casos, existen varios estimadores alternativos. [15] Una forma es utilizar el estimador de Bayes, que conduce a:). Otro método consiste en utilizar el límite superior del intervalo de confianza obtenido mediante la regla de tres :)
Intervalos de confianza
Incluso para valores bastante grandes de n , la distribución real de la media es significativamente anormal. [16] Debido a este problema, se han propuesto varios métodos para estimar los intervalos de confianza.
En las ecuaciones para los intervalos de confianza a continuación, las variables tienen el siguiente significado:
- n 1 es el número de éxitos de n , el número total de intentos
- es la proporción de éxitos
- es el Cuantil de una distribución normal estándar (es decir, probit ) correspondiente a la tasa de error objetivo. Por ejemplo, para un nivel de confianza del 95%, el error = 0.05, entonces = 0,975 y = 1,96.
Método Wald
- Puede añadirse una corrección de continuidad de 0,5 / n . [ aclaración necesaria ]
Método Agresti-Coull
[17]
- Aquí la estimación de p se modifica a
- Este método funciona bien para y . [18] Ver aquí para . [19] Para utilice el método de Wilson (puntuación) a continuación.
Método de arcoseno
[20]
Método de Wilson (puntuación)
La notación en la fórmula siguiente difiere de las fórmulas anteriores en dos aspectos: [21]
- En primer lugar, z x tiene una interpretación ligeramente diferente en la fórmula siguiente: tiene su significado ordinario de "el x- ésimo cuantil de la distribución normal estándar", en lugar de ser una abreviatura de "el (1 - x ) -ésimo cuantil".
- En segundo lugar, esta fórmula no utiliza un signo más menos para definir los dos límites. En cambio, uno puede usar para obtener el límite inferior, o usar para obtener el límite superior. Por ejemplo: para un nivel de confianza del 95%, el error = 0.05, por lo que se obtiene el límite inferior usando , y uno obtiene el límite superior usando .
- [22]
Comparación
El método exacto ( Clopper-Pearson ) es el más conservador. [dieciséis]
El método Wald, aunque se recomienda comúnmente en los libros de texto, es el más sesgado. [ aclaración necesaria ]
Distribuciones relacionadas
Sumas de binomios
Si X ~ B ( n , p ) e Y ~ B ( m , p ) son variables binomiales independientes con la misma probabilidad p , entonces X + Y es nuevamente una variable binomial; su distribución es Z = X + Y ~ B ( n + m , p ):
Sin embargo, si X e Y no tienen la misma probabilidad p , entonces la varianza de la suma será menor que la varianza de una variable binomial distribuida como
Razón de dos distribuciones binomiales
Este resultado fue obtenido por primera vez por Katz y sus coautores en 1978. [23]
Sean X ~ B ( n , p 1 ) e Y ~ B ( m , p 2 ) independientes. Sea T = ( X / n ) / ( Y / m ).
Entonces log ( T ) tiene una distribución aproximadamente normal con la media log ( p 1 / p 2 ) y la varianza ((1 / p 1 ) - 1) / n + ((1 / p 2 ) - 1) / m .
Binomios condicionales
Si X ~ B ( n , p ) y Y | X ~ B ( X , q ) (la distribución condicional de Y , dado X ), entonces Y es una variable aleatoria binomial simple con distribución Y ~ B ( n , pq ).
Por ejemplo, imaginar que lanza n bolas a una cesta U X y teniendo las bolas que hit y tirarlos a otra cesta U Y . Si p es la probabilidad de golpear U X entonces X ~ B ( n , p ) es el número de bolas que golpean U X . Si q es la probabilidad de golpear U Y, entonces el número de bolas que golpean U Y es Y ~ B ( X , q ) y, por lo tanto, Y ~ B ( n , pq ).
Desde y , según la ley de la probabilidad total ,
Desde la ecuación anterior se puede expresar como
Factorización y tirando de todos los términos que no dependen de de la suma ahora rinde
Después de sustituir en la expresión anterior, obtenemos
Observe que la suma (entre paréntesis) anterior es igual a por el teorema del binomio . Sustituyendo esto en finalmente produce
y por lo tanto como se desee.
Distribución de Bernoulli
La distribución de Bernoulli es un caso especial de la distribución binomial, donde n = 1. Simbólicamente, X ~ B (1, p ) tiene el mismo significado que X ~ Bernoulli ( p ). Por el contrario, cualquier distribución binomial, B ( n , p ), es la distribución de la suma de n ensayos de Bernoulli, Bernoulli ( p ), cada uno con la misma probabilidad p . [24]
Distribución binomial de Poisson
La distribución binomial es un caso especial de la distribución binomial de Poisson , o distribución binomial general , que es la distribución de una suma de n ensayos de Bernoulli independientes no idénticos B ( p i ). [25]
Aproximación normal
Si n es lo suficientemente grande, entonces el sesgo de la distribución no es demasiado grande. En este caso, una aproximación razonable a B ( n , p ) viene dada por la distribución normal
y esta aproximación básica se puede mejorar de forma sencilla utilizando una corrección de continuidad adecuada . La aproximación básica generalmente mejora a medida que n aumenta (al menos 20) y es mejor cuando p no está cerca de 0 o 1. [26] Se pueden usar varias reglas generales para decidir si n es lo suficientemente grande y p está lo suficientemente lejos de los extremos de cero o uno:
- Una regla [26] es que para n > 5 la aproximación normal es adecuada si el valor absoluto de la asimetría es estrictamente menor que 1/3; eso es, si
- Una regla más fuerte establece que la aproximación normal es apropiada solo si todo dentro de 3 desviaciones estándar de su media está dentro del rango de valores posibles; es decir, solo si
- Esta regla de 3 desviaciones estándar es equivalente a las siguientes condiciones, que también implican la primera regla anterior.
La regla es totalmente equivalente a solicitar que
Mover términos en torno a los rendimientos:
Desde , podemos aplicar la potencia al cuadrado y dividir por los factores respectivos y , para obtener las condiciones deseadas:
Tenga en cuenta que estas condiciones implican automáticamente que . Por otro lado, aplicar nuevamente la raíz cuadrada y dividir por 3,
Restar el segundo conjunto de desigualdades del primero da como resultado:
y así, se cumple la primera regla deseada,
- Otra regla de uso común es que ambos valores y debe ser mayor o igual a 5. Sin embargo, el número específico varía de una fuente a otra y depende de qué tan buena aproximación se desee. En particular, si se usa 9 en lugar de 5, la regla implica los resultados indicados en los párrafos anteriores.
Suponga que ambos valores y son mayores que 9. Dado que , lo tenemos fácilmente
Solo tenemos que dividir ahora por los factores respectivos y , para deducir la forma alternativa de la regla de las 3 desviaciones estándar:
El siguiente es un ejemplo de cómo aplicar una corrección de continuidad . Supongamos que se desea calcular Pr ( X ≤ 8) para una variable aleatoria binomial X . Si Y tiene una distribución dada por la aproximación normal, entonces Pr ( X ≤ 8) se aproxima por Pr ( Y ≤ 8.5). La adición de 0.5 es la corrección de continuidad; la aproximación normal sin corregir da resultados considerablemente menos precisos.
Esta aproximación, conocida como teorema de Moivre-Laplace , es un gran ahorro de tiempo cuando se realizan cálculos a mano (los cálculos exactos con n grande son muy onerosos); históricamente, fue el primer uso de la distribución normal, introducido en el libro de Abraham de Moivre The Doctrine of Chances en 1738. Hoy en día, se puede ver como una consecuencia del teorema del límite central ya que B ( n , p ) es un suma de n variables de Bernoulli independientes distribuidas de forma idéntica con el parámetro p . Este hecho es la base de una prueba de hipótesis , una "prueba z de proporción", para el valor de p utilizando x / n , la proporción muestral y el estimador de p , en un estadístico de prueba común . [27]
Por ejemplo, suponga que uno toma una muestra aleatoria de n personas de una gran población y les pregunta si están de acuerdo con una determinada afirmación. La proporción de personas que estén de acuerdo dependerá, por supuesto, de la muestra. Si se muestrearan grupos de n personas de manera repetida y verdaderamente aleatoria, las proporciones seguirían una distribución normal aproximada con una media igual a la proporción verdadera p de acuerdo en la población y con desviación estándar
Aproximación de Poisson
La distribución binomial converge hacia la distribución de Poisson a medida que el número de ensayos llega al infinito mientras que el producto np permanece fijo o al menos p tiende a cero. Por lo tanto, la distribución de Poisson con parámetro λ = np se puede utilizar como una aproximación a B ( n , p ) de la distribución binomial si n es suficientemente grande y p es suficientemente pequeño. Según dos reglas generales, esta aproximación es buena si n ≥ 20 yp ≤ 0,05, o si n ≥ 100 y np ≤ 10. [28]
Con respecto a la precisión de la aproximación de Poisson, véase Novak, [29] cap. 4, y referencias en el mismo.
Limitación de distribuciones
- Teorema del límite de Poisson : a medida que n se acerca a ∞ yp se acerca a 0 con el producto np mantenido fijo, ladistribuciónBinomial ( n , p ) se acerca a la distribución de Poisson con el valor esperado λ = np . [28]
- Teorema de Moivre-Laplace : cuando n se acerca a ∞ mientras que p permanece fijo, la distribución de
- se aproxima a la distribución normal con el valor esperado 0 y la varianza 1. [ cita requerida ] Este resultado a veces se expresa libremente al decir que la distribución de X es asintóticamente normal con el valor esperado np y la varianza np (1 - p ). Este resultado es un caso específico del teorema del límite central .
Distribución beta
La distribución binomial y la distribución beta son vistas diferentes del mismo modelo de ensayos repetidos de Bernoulli. La distribución binomial es el PMF de k éxitos dados n eventos independientes, cada uno con una probabilidad p de éxito. Matemáticamente, cuando α = k + 1 y β = n - k + 1 , la distribución beta y la distribución binomial están relacionadas por un factor de n + 1 :
Las distribuciones beta también proporcionan una familia de distribuciones de probabilidad previas para distribuciones binomiales en la inferencia bayesiana : [30]
Dado un a priori uniforme, la distribución posterior de la probabilidad de éxito p dado n eventos independientes con k éxitos observados es una distribución beta. [31]
Métodos computacionales
Generación de variables aleatorias binomiales
Los métodos para la generación de números aleatorios donde la distribución marginal es una distribución binomial están bien establecidos. [32] [33]
Una forma de generar muestras aleatorias a partir de una distribución binomial es utilizar un algoritmo de inversión. Para hacerlo, se debe calcular la probabilidad de que Pr ( X = k ) para todos los valores k desde 0 hasta n . (Estas probabilidades deben sumar un valor cercano a uno, con el fin de abarcar todo el espacio muestral). Luego, al usar un generador de números pseudoaleatorios para generar muestras uniformemente entre 0 y 1, se pueden transformar las muestras calculadas en números discretos utilizando el probabilidades calculadas en el primer paso.
Historia
Esta distribución fue derivada por Jacob Bernoulli . Se considera el caso en que p = r / ( r + s ), donde p es la probabilidad de éxito y r y s son números enteros positivos. Blaise Pascal había considerado anteriormente el caso en el que p = 1/2.
Ver también
- Regresión logística
- Distribución multinomial
- Distribución binomial negativa
- Distribución beta-binomial
- Medida binomial, un ejemplo de medida multifractal . [34]
- Mecánica estadística
- Lema de acumulación , la probabilidad resultante cuando XOR -ing variables booleanas independientes
Referencias
- ^ Feller, W. (1968). Introducción a la teoría de la probabilidad y sus aplicaciones (tercera ed.). Nueva York: Wiley. pag. 151 (teorema del apartado VI.3).
- ^ Wadsworth, GP (1960). Introducción a la probabilidad y las variables aleatorias . Nueva York: McGraw-Hill. pag. 52 .
- ^ Jowett, GH (1963). "La relación entre las distribuciones binomial y F". Revista de la Royal Statistical Society D . 13 (1): 55–57. doi : 10.2307 / 2986663 . JSTOR 2986663 .
- ^ Ver Wiki de prueba
- ^ D. Ahle, Thomas (31 de marzo de 2021). "Límites agudos y simples para los momentos crudos de las distribuciones binomial y de Poisson". arXiv : 2103.17027 [ math.PR ].
- ^ Ver también Nicolas, André (7 de enero de 2019). "Modo de búsqueda en distribución binomial" . Stack Exchange .
- ^ Neumann, P. (1966). "Über den Median der Binomial- y Poissonverteilung". Wissenschaftliche Zeitschrift der Technischen Universität Dresden (en alemán). 19 : 29–33.
- ^ Señor, Nick. (Julio de 2010). "Promedios binomiales cuando la media es un número entero", The Mathematical Gazette 94, 331-332.
- ^ a b Kaas, R .; Buhrman, JM (1980). "Media, mediana y moda en distribuciones binomiales". Statistica Neerlandica . 34 (1): 13–18. doi : 10.1111 / j.1467-9574.1980.tb00681.x .
- ^ Hamza, K. (1995). "El límite superior uniforme más pequeño en la distancia entre la media y la mediana de las distribuciones binomial y de Poisson". Estadísticas y letras de probabilidad . 23 : 21-25. doi : 10.1016 / 0167-7152 (94) 00090-U .
- ^ Nowakowski, Sz. (2021). "Unicidad de una mediana de una distribución binomial con probabilidad racional". Avances en Matemáticas: Revista científica . 10 (4): 1951-1958. arXiv : 2004.03280 . doi : 10.37418 / amsj.10.4.9 .
- ^ a b Arratia, R .; Gordon, L. (1989). "Tutorial sobre grandes desviaciones para la distribución binomial". Boletín de Biología Matemática . 51 (1): 125-131. doi : 10.1007 / BF02458840 . PMID 2706397 . S2CID 189884382 .
- ^ Robert B. Ash (1990). Teoría de la información . Publicaciones de Dover. pag. 115 .
- ^ Matoušek, J .; Vondrak, J. "El método probabilístico" (PDF) . notas de conferencias .
- ^ Razzaghi, Mehdi (2002). "Sobre la estimación de la probabilidad de éxito binomial con ocurrencia cero en la muestra" . Revista de métodos estadísticos aplicados modernos . 1 (2): 326–332. doi : 10.22237 / jmasm / 1036110000 .
- ^ a b Brown, Lawrence D .; Cai, T. Tony; DasGupta, Anirban (2001), "Estimación de intervalo para una proporción binomial" , Ciencia estadística , 16 (2): 101–133, CiteSeerX 10.1.1.323.7752 , doi : 10.1214 / ss / 1009213286 , consultado el 5 de enero de 2015
- ^ Agresti, Alan; Coull, Brent A. (mayo de 1998), "Aproximado es mejor que 'exacto' para la estimación de intervalo de proporciones binomiales" (PDF) , The American Statistician , 52 (2): 119-126, doi : 10.2307 / 2685469 , JSTOR 2685469 , consultado el 5 de enero de 2015
- ^ Gulotta, Joseph. "Método de intervalo Agresti-Coull" . pellucid.atlassian.net . Consultado el 18 de mayo de 2021 .
- ^ "Intervalos de confianza" . itl.nist.gov . Consultado el 18 de mayo de 2021 .
- ^ Pires, MA (2002). "Intervalos de confianza para una proporción binomial: comparación de métodos y evaluación de software" (PDF) . En Klinke, S .; Ahrend, P .; Richter, L. (eds.). Actas de la Conferencia CompStat 2002 . Comunicaciones breves y carteles.
- ^ Wilson, Edwin B. (junio de 1927), "Inferencia probable, ley de sucesión e inferencia estadística" (PDF) , Revista de la Asociación Estadounidense de Estadística , 22 (158): 209-212, doi : 10.2307 / 2276774 , JSTOR 2276774 , archivado desde el original (PDF) el 13 de enero de 2015 , consultado el 5 de enero de 2015
- ^ "Intervalos de confianza" . Manual de estadísticas de ingeniería . NIST / Sematech. 2012 . Consultado el 23 de julio de 2017 .
- ^ Katz, D .; et al. (1978). "Obtención de intervalos de confianza para la razón de riesgo en estudios de cohortes". Biometría . 34 (3): 469–474. doi : 10.2307 / 2530610 . JSTOR 2530610 .
- ^ Taboga, Marco. "Conferencias sobre teoría de la probabilidad y estadística matemática" . statlect.com . Consultado el 18 de diciembre de 2017 .
- ^ Wang, YH (1993). "Sobre el número de éxitos en ensayos independientes" (PDF) . Statistica Sinica . 3 (2): 295–312. Archivado desde el original (PDF) el 3 de marzo de 2016.
- ^ a b Box, Hunter y Hunter (1978). Estadísticas para experimentadores . Wiley. pag. 130 .
- ^ NIST / SEMATECH , "7.2.4. ¿La proporción de defectuosos cumple con los requisitos?" Manual electrónico de métodos estadísticos.
- ^ a b NIST / SEMATECH , "6.3.3.1. Gráficos de control de recuentos" , Manual electrónico de métodos estadísticos.
- ^ Novak SY (2011) Métodos de valor extremo con aplicaciones para financiar. Londres: CRC / Chapman & Hall / Taylor & Francis. ISBN 9781-43983-5746 .
- ^ MacKay, David (2003). Teoría de la información, Inferencia y Algoritmos de aprendizaje . Prensa de la Universidad de Cambridge; Primera edición. ISBN 978-0521642989.
- ^ https://www.statlect.com/probability-distributions/beta-distribution
- ^ Devroye, Luc (1986) Generación variable aleatoria no uniforme , Nueva York: Springer-Verlag. (Ver especialmente el Capítulo X, Distribuciones univariadas discretas )
- ^ Kachitvichyanukul, V .; Schmeiser, BW (1988). "Generación variable aleatoria binomial". Comunicaciones de la ACM . 31 (2): 216–222. doi : 10.1145 / 42372.42381 . S2CID 18698828 .
- ^ Mandelbrot, BB, Fisher, AJ y Calvet, LE (1997). Un modelo multifractal de rentabilidad de los activos. 3.2 La medida binomial es el ejemplo más simple de un multifractal
Otras lecturas
- Hirsch, Werner Z. (1957). "Distribución binomial: éxito o fracaso, ¿qué probabilidad tienen?" . Introducción a la estadística moderna . Nueva York: MacMillan. págs. 140-153.
- Neter, John; Wasserman, William; Whitmore, GA (1988). Estadística aplicada (Tercera ed.). Boston: Allyn y Bacon. págs. 185-192. ISBN 0-205-10328-6.
enlaces externos
- Gráfico interactivo: relaciones de distribución univariadas
- Calculadora de fórmulas de distribución binomial
- Diferencia de dos variables binomiales: XY o | XY |
- Consultando la distribución de probabilidad binomial en WolframAlpha