En la teoría de la probabilidad , una colección independiente por pares de variables aleatorias es un conjunto de variables aleatorias de las cuales dos son independientes . [1] Cualquier colección de variables aleatorias independientes entre sí es independiente por pares, pero algunas colecciones independientes por parejas no son independientes entre sí. Las variables aleatorias independientes por pares con varianza finita no están correlacionadas .
Un par de variables aleatorias X e Y son independientes si y solo si el vector aleatorio ( X , Y ) con la función de distribución acumulativa conjunta (CDF) satisface
o equivalentemente, su densidad conjunta satisface
Es decir, la distribución conjunta es igual al producto de las distribuciones marginales. [2]
A menos que no esté claro en el contexto, en la práctica el modificador "mutuo" generalmente se elimina de modo que independencia significa independencia mutua . Una declaración como " X , Y , Z son variables aleatorias independientes" significa que X , Y , Z son mutuamente independientes.
Ejemplo
La independencia por pares no implica independencia mutua, como muestra el siguiente ejemplo atribuido a S. Bernstein. [3]
Suponga que X e Y son dos lanzamientos independientes de una moneda justa, donde designamos 1 para cara y 0 para cruz. Deje que la tercera variable aleatoria Z sea igual a 1 si exactamente uno de esos lanzamientos de moneda resultó en "cara", y 0 en caso contrario. Entonces, en conjunto, el triple ( X , Y , Z ) tiene la siguiente distribución de probabilidad :
Aquí las distribuciones de probabilidad marginal son idénticas: y Las distribuciones bivariadas también coinciden: dónde
Dado que cada una de las distribuciones conjuntas por pares es igual al producto de sus respectivas distribuciones marginales, las variables son independientes por pares:
- X e Y son independientes y
- X y Z son independientes y
- Y y Z son independientes.
Sin embargo, X , Y y Z no son mutuamente independientes , ya queel lado izquierdo es igual, por ejemplo, 1/4 para ( x , y , z ) = (0, 0, 0) mientras que el lado derecho es igual a 1/8 para ( x , y , z ) = (0, 0, 0). De hecho, cualquiera deestá completamente determinado por los otros dos (cualquiera de X , Y , Z es la suma (módulo 2) de los demás). Eso está tan lejos de la independencia como pueden llegar las variables aleatorias.
Probabilidad de la unión de eventos independientes por pares
Los límites de la probabilidad de que la suma de las variables aleatorias de Bernoulli sea al menos una, comúnmente conocido como límite de unión , son proporcionados por las desigualdades de Boole-Fréchet [4] [5] . Si bien estos límites suponen solo información univariante , también se han propuesto varios límites con conocimiento de probabilidades bivariadas generales . Denotamos por un conjunto de Eventos de Bernoulli con probabilidad de ocurrencia para cada . Suponga que las probabilidades bivariadas están dadas por por cada par de índices . Kounias [6] derivó el siguiente límite superior :
que resta el peso máximo de un árbol de expansión de estrellas en un gráfico completo con nodos (donde los pesos de los bordes vienen dados por ) de la suma de las probabilidades marginales.
Hunter-Worsley [7] [8] ajustó este límite superior optimizando sobre como sigue:
dónde es el conjunto de todos los árboles de expansión del gráfico. Estos límites no son los más estrechos posibles con bivariados generales incluso cuando la viabilidad está garantizada como se muestra en Boros et.al. [9] Sin embargo, cuando las variables son independientes por pares (), Ramachandra-Natarajan [10] mostró que el límite de Kounias-Hunter-Worsley [6] [7] [8] es estrecho al demostrar que la probabilidad máxima de la unión de eventos admite una expresión de forma cerrada dada como:
( 1 )
donde las probabilidades se ordenan en orden creciente como. Es interesante notar que el límite estrecho en la ecuación. 1 depende solo de la suma de los más pequeños probabilidades y la mayor probabilidad . Por lo tanto, mientras que el orden de las probabilidades juega un papel en la derivación del límite, el orden entre los más pequeños probabilidades es intrascendente ya que solo se usa su suma.
Comparación con el límite de unión de Boole-Fréchet
Es útil comparar los límites más pequeños de la probabilidad de unión con dependencia arbitraria e independencia por pares, respectivamente. El límite de unión superior de Boole-Fréchet más estrecho (asumiendo solo información univariante ) se da como:
( 2 )
Como se muestra en Ramachandra-Natarajan, [10] se puede verificar fácilmente que la razón de los dos límites estrechos en la Ec. 2 y Eq. 1 es superior delimitado por donde el valor máximo de se alcanza cuando
- ,
- ,
donde las probabilidades se ordenan en orden creciente como. En otras palabras, en el mejor de los casos, el límite de independencia por pares en la ecuación. 1 proporciona una mejora desobre el límite univariado en la Ec. 2 .
Generalización
De manera más general, podemos hablar de k independencia -wise, para cualquier k ≥ 2. La idea es similar: un conjunto de variables aleatorias es k -wise independiente si cada subconjunto de tamaño k de esas variables es independiente. La independencia en sentido k se ha utilizado en informática teórica, donde se utilizó para demostrar un teorema sobre el problema MAXEkSAT .
La independencia de k -wise se usa en la prueba de que las funciones de hash independientes de k son códigos de autenticación de mensajes seguros e imposibles de falsificar .
Ver también
- Por parejas
- Disjunto por pares
Referencias
- ^ Gut, A. (2005) Probabilidad: un curso de posgrado , Springer-Verlag. ISBN 0-387-27332-8 . págs. 71–72.
- ^ Hogg, RV, McKean, JW, Craig, AT (2005). Introducción a la estadística matemática (6 ed.). Upper Saddle River, Nueva Jersey: Pearson Prentice Hall. ISBN 0-13-008507-3.CS1 maint: varios nombres: lista de autores ( enlace ) Definición 2.5.1, página 109.
- ^ Hogg, RV, McKean, JW, Craig, AT (2005). Introducción a la estadística matemática (6 ed.). Upper Saddle River, Nueva Jersey: Pearson Prentice Hall. ISBN 0-13-008507-3.CS1 maint: varios nombres: lista de autores ( enlace )Observación 2.6.1, p. 120.
- ↑ Boole, G. (1854). Una investigación de las leyes del pensamiento, en las que se basan las teorías matemáticas de la lógica y la probabilidad. Walton y Maberly, Londres. Consulte los límites "mayores" y "menores" de una conjunción de Boole en la página 299.
- ^ Fréchet, M. (1935). Généralisations du théorème des probabilités totales. Fundamenta Mathematicae 25 : 379–387.
- ^ a b EG Kounias (1968). "Límites para la probabilidad de unión, con aplicaciones". Los Anales de Estadística Matemática . 39 : 2154–2158.
- ^ a b D. Hunter (1976). "Un límite superior para la probabilidad de una unión". Revista de probabilidad aplicada . 13 (3): 597–603.
- ^ a b KJ Worsley (1982). "Una desigualdad y aplicaciones mejoradas de Bonferroni". Biometrika . 69 (2): 297-302.
- ^ E. Boros, A. Scozzari, F. Tardella y P. Veneziani (2014). "Límites polinomialmente computables para la probabilidad de la unión de eventos". Matemáticas de la investigación operativa . 39 (4): 1311-1329.CS1 maint: varios nombres: lista de autores ( enlace )
- ^ a b A. Ramachandra, K. Natarajan (2020). "Límites de probabilidad ajustados con independencia por pares". arXiv : 2006.00516 . Cite journal requiere
|journal=
( ayuda )