En teoría de probabilidad y estadística , la distribución binomial de Poisson es la distribución de probabilidad discreta de una suma de ensayos de Bernoulli independientes que no están necesariamente distribuidos de manera idéntica. El concepto lleva el nombre de Siméon Denis Poisson .
Parámetros | - probabilidades de éxito para cada uno de los n ensayos | ||
---|---|---|---|
Apoyo | k ∈ {0,…, n } | ||
PMF | |||
CDF | |||
Significar | |||
Diferencia | |||
Oblicuidad | |||
Ex. curtosis | |||
MGF | |||
CF |
En otras palabras, es la distribución de probabilidad del número de éxitos en una colección de n experimentos independientes de sí / no con probabilidades de éxito. . La distribución binomial ordinaria es un caso especial de la distribución binomial de Poisson, cuando todas las probabilidades de éxito son iguales, es decir.
Definiciones
Función de probabilidad
La probabilidad de tener k ensayos exitosos de un total de n se puede escribir como la suma [1]
dónde es el conjunto de todos los subconjuntos de k enteros que se pueden seleccionar de {1,2,3, ..., n }. Por ejemplo, si n = 3, entonces. es el complemento de , es decir .
contendrá elementos, cuya suma no es factible de calcular en la práctica a menos que el número de ensayos n sea pequeño (por ejemplo, si n = 30,contiene más de 10 20 elementos). Sin embargo, existen otras formas más eficientes de calcular.
Siempre que ninguna de las probabilidades de éxito sea igual a uno, se puede calcular la probabilidad de k éxitos utilizando la fórmula recursiva [2] [3]
dónde
La fórmula recursiva no es numéricamente estable y debe evitarse si es mayor que aproximadamente 20. Otra posibilidad es usar la transformada discreta de Fourier . [4]
dónde y .
Aún otros métodos se describen en [5] .
Propiedades
Media y varianza
Dado que una variable distribuida binomial de Poisson es una suma de n variables distribuidas de Bernoulli independientes, su media y varianza serán simplemente sumas de la media y la varianza de las n distribuciones de Bernoulli:
Para valores fijos de la media () y tamaño ( n ), la varianza es máxima cuando todas las probabilidades de éxito son iguales y tenemos una distribución binomial. Cuando la media es fija, la varianza está limitada desde arriba por la varianza de la distribución de Poisson con la misma media que se alcanza asintóticamente [ cita requerida ] cuando n tiende a infinito.
Entropía
No existe una fórmula simple para la entropía de una distribución binomial de Poisson, pero la entropía está acotada arriba por la entropía de una distribución binomial con el mismo parámetro numérico y la misma media. Por lo tanto, la entropía también está limitada por la entropía de una distribución de Poisson con la misma media. [6]
La concavidad de Shepp-Olkin, de Lawrence Shepp e Ingram Olkin en 1981, establece que la entropía de una distribución binomial de Poisson es una función cóncava de las probabilidades de éxito. [7] Esta conjetura fue probada por Erwan Hillion y Oliver Johnson en 2015. [8] La conjetura de monotonicidad de Shepp-Olkin, también del mismo artículo de 1981, es que la entropía es monótona aumentando en, me caigo . Esta conjetura también fue probada por Hillion y Johnson, en 2019 [9]
Chernoff obligado
La probabilidad de que una distribución binomial de Poisson sea grande se puede acotar usando su función generadora de momentos de la siguiente manera (válida cuando y para cualquier ):
donde tomamos . Esto es similar a los límites de cola de una distribución binomial .
Ver también
Referencias
- ^ Wang, YH (1993). "Sobre el número de éxitos en ensayos independientes" (PDF) . Statistica Sinica . 3 (2): 295–312.
- ^ Shah, BK (1994). "Sobre la distribución de la suma de variables aleatorias de valores enteros independientes". Estadístico estadounidense . 27 (3): 123-124. JSTOR 2683639 .
- ^ Chen, XH; AP Dempster; JS Liu (1994). "Muestreo de población finita ponderada para maximizar la entropía" (PDF) . Biometrika . 81 (3): 457. doi : 10.1093 / biomet / 81.3.457 .
- ^ Fernández, M .; S. Williams (2010). "Expresión de forma cerrada para la función de densidad de probabilidad binomial de Poisson". Transacciones IEEE en sistemas electrónicos y aeroespaciales . 46 (2): 803–817. Código Bibliográfico : 2010ITAES..46..803F . doi : 10.1109 / TAES.2010.5461658 . S2CID 1456258 .
- ^ Chen, SX; JS Liu (1997). "Aplicaciones estadísticas de las distribuciones de Bernoulli de Poisson-Binomial y condicionales" . Statistica Sinica . 7 : 875–892.
- ^ Harremoës, P. (2001). "Distribuciones binomiales y de Poisson como distribuciones de máxima entropía" (PDF) . Transacciones IEEE sobre teoría de la información . 47 (5): 2039-2041. doi : 10.1109 / 18.930936 .
- ^ Shepp, Lawrence; Olkin, Ingram (1981). "Entropía de la suma de variables aleatorias independientes de Bernoulli y de la distribución multinomial" . En Gani, J .; Rohatgi, VK (eds.). Contribuciones a la probabilidad: una colección de artículos dedicados a Eugene Lukacs . Nueva York: Academic Press. págs. 201–206. ISBN 0-12-274460-8. Señor 0618689 .
- ^ Hillion, Erwan; Johnson, Oliver (5 de marzo de 2015). "Una prueba de la concavidad de la concavidad de la entropía de Shepp-Olkin". Bernoulli . 23 (4B): 3638–3649. arXiv : 1503.01570 . doi : 10.3150 / 16-BEJ860 . S2CID 8358662 .
- ^ Hillion, Erwan; Johnson, Oliver (9 de noviembre de 2019). "Una prueba de la conjetura de la monotonicidad de la entropía de Shepp-Olkin" . Revista Electrónica de Probabilidad . 24 (126): 1-14. doi : 10.1214 / 19-EJP380 .