En la teoría de la probabilidad , la independencia condicional describe situaciones en las que una observación es irrelevante o redundante al evaluar la certeza de una hipótesis. La independencia condicional se suele formular en términos de probabilidad condicional , como un caso especial en el que la probabilidad de la hipótesis dada la observación no informativa es igual a la probabilidad sin. Si es la hipótesis, y y son observaciones, la independencia condicional se puede establecer como una igualdad:
dónde es la probabilidad de dado ambos y . Dado que la probabilidad de dado es la misma que la probabilidad de dado ambos y , esta igualdad expresa que no aporta nada a la certeza de . En este caso, y se dice que son condicionalmente independientes dado, escrito simbólicamente como: .
El concepto de independencia condicional es esencial para las teorías de inferencia estadística basadas en gráficos, ya que establece una relación matemática entre una colección de enunciados condicionales y un grafoide .
Independencia condicional de eventos
Dejar , , y ser eventos . y se dice que son condicionalmente independientes dado si y solo si y:
Esta propiedad a menudo se escribe: .
De manera equivalente, la independencia condicional puede expresarse como:
La discusión sobre StackExchange proporciona un par de ejemplos útiles. Vea abajo. [1]
Cajas de colores
Cada celda representa un posible resultado. Los eventos, y están representados por las áreas sombreadas en rojo , azul y amarillo, respectivamente. La superposición entre los eventos y está sombreado de púrpura .
Las probabilidades de estos eventos son áreas sombreadas con respecto al área total. En ambos ejemplos y son condicionalmente independientes dado porque:
pero no condicionalmente independiente dado porque:
Clima y retrasos
Supongamos que los dos eventos son las probabilidades de que las personas A y B lleguen a casa a tiempo para cenar, y el tercer evento es el hecho de que una tormenta de nieve azotó la ciudad. Si bien tanto A como B tienen una probabilidad más baja de llegar a casa a tiempo para la cena, las probabilidades más bajas seguirán siendo independientes entre sí. Es decir, el conocimiento de que A llega tarde no le dice si B llegará tarde. (Pueden estar viviendo en diferentes vecindarios, viajando diferentes distancias y usando diferentes medios de transporte). Sin embargo, si tiene información de que viven en el mismo vecindario, usan el mismo transporte y trabajan en el mismo lugar, entonces los dos los eventos NO son condicionalmente independientes.
Rodando dados
La independencia condicional depende de la naturaleza del tercer evento. Si tira dos dados, se puede suponer que los dos dados se comportan de forma independiente. Mirar los resultados de un dado no le dirá sobre el resultado del segundo dado. (Es decir, los dos dados son independientes). Sin embargo, si el resultado del primer dado es un 3 y alguien le informa sobre un tercer evento, que la suma de los dos resultados es par, entonces esta unidad adicional de información restringe la opciones para el segundo resultado a un número impar. En otras palabras, dos eventos pueden ser independientes, pero NO condicionalmente independientes.
Altura y vocabulario
La altura y el vocabulario son dependientes ya que las personas muy pequeñas tienden a ser niños, conocidos por sus vocabularios más básicos. Pero sabiendo que dos personas tienen 19 años (es decir, condicional a la edad), no hay razón para pensar que el vocabulario de una persona es más grande si se nos dice que es más alto.
Independencia condicional de variables aleatorias
Dos variables aleatorias y son condicionalmente independientes dada una tercera variable aleatoria discreta si y solo si son independientes en su distribución de probabilidad condicional dada. Es decir, y son condicionalmente independientes dado si y solo si, dado cualquier valor de , la distribución de probabilidad de es el mismo para todos los valores de y la distribución de probabilidad de es el mismo para todos los valores de . Formalmente:
Dos variables aleatorias y son condicionalmente independientes dada una σ-álgebra si la ecuación anterior es válida para todos en y en .
Dos variables aleatorias y son condicionalmente independientes dada una variable aleatoria si son independientes dado σ ( W ): el σ-álgebra generada por. Esto se escribe comúnmente:
o
Esto se lee " es independiente de , dado "; el condicionamiento se aplica a toda la declaración:" ( es independiente de ) dado ".
Si asume un conjunto contable de valores, esto es equivalente a la independencia condicional de X e Y para los eventos de la forma. La independencia condicional de más de dos eventos, o de más de dos variables aleatorias, se define de forma análoga.
Los siguientes dos ejemplos muestran que ni implica ni está implícito por. Primero, supongaes 0 con probabilidad de 0,5 y 1 en caso contrario. Cuando W = 0 toma y para ser independientes, cada uno tiene el valor 0 con probabilidad 0,99 y el valor 1 en caso contrario. Cuándo, y son de nuevo independientes, pero esta vez toman el valor 1 con probabilidad 0,99. Luego. Pero y son dependientes, porque Pr ( X = 0) X = 0 | Y = 0). Esto se debe a que Pr ( X = 0) = 0.5, pero si Y = 0, entonces es muy probable que W = 0 y, por lo tanto, X = 0 también, por lo que Pr ( X = 0 | Y = 0)> 0.5. Para el segundo ejemplo, suponga, cada uno tomando los valores 0 y 1 con probabilidad 0.5. Dejar ser el producto . Entonces cuando, Pr ( X = 0) = 2/3, pero Pr ( X = 0 | Y = 0) = 1/2, entoncesEs falso. Este es también un ejemplo de Explicación. Vea el tutorial de Kevin Murphy [3] donde y tomar los valores "inteligente" y "deportivo".
Independencia condicional de vectores aleatorios
Dos vectores aleatorios y son condicionalmente independientes dado un tercer vector aleatorio si y solo si son independientes en su distribución acumulativa condicional dada . Formalmente:
( Ecuación 3 )
dónde , y y las distribuciones acumulativas condicionales se definen como sigue.
Usos en inferencia bayesiana
Sea p la proporción de votantes que votarán "sí" en un próximo referéndum . Al realizar una encuesta de opinión , uno elige n votantes al azar de la población. Para i = 1,…, n , sea X i = 1 o 0 correspondiente, respectivamente, a si el i- ésimo votante elegido votará "sí" o no.
En un enfoque frecuentista de la inferencia estadística, uno no atribuiría ninguna distribución de probabilidad ap (a menos que las probabilidades pudieran interpretarse de alguna manera como frecuencias relativas de ocurrencia de algún evento o como proporciones de alguna población) y se diría que X 1 ,…, X n son variables aleatorias independientes .
Por el contrario, en un bayesiano enfoque de la inferencia estadística, se podría asignar una distribución de probabilidad de p , independientemente de la no existencia de tal interpretación "frecuencia", y uno podría interpretar las probabilidades como grados de creencia de que p es en cualquier intervalo de a la que se le asigna una probabilidad. En ese modelo, las variables aleatorias X 1 ,…, X n no son independientes, pero son condicionalmente independientes dado el valor de p . En particular, si se observa que un gran número de X es igual a 1, eso implicaría una alta probabilidad condicional , dada esa observación, de que p está cerca de 1 y, por lo tanto, una alta probabilidad condicional , dada esa observación, que el la siguiente X a observar será igual a 1.
Reglas de independencia condicional
De la definición básica se ha derivado un conjunto de reglas que gobiernan las declaraciones de independencia condicional. [4] [5]
Estas reglas fueron denominadas " Axiomas grafoides " por Pearl y Paz, [6] porque se mantienen en los gráficos, dondese interpreta en el sentido de: "Todos los caminos de X a A son interceptados por el conjunto B ". [7]
Simetría
Descomposición
Prueba
(el significado de )
(ignore la variable B integrándola)
Una prueba similares demuestra la independencia de X y B .
Unión débil
Prueba
Por definición, .
Debido a la propiedad de descomposición. , .
La combinación de las dos igualdad anteriores da , que establece .
La segunda condición se puede probar de manera similar.
Contracción
Prueba
Esta propiedad se puede probar notando , cada igualdad de las cuales es afirmada por y , respectivamente.
Intersección
Para distribuciones de probabilidad estrictamente positivas, [5] también se cumple lo siguiente:
Nota técnica: ya que estos tienen implicaciones para cualquier espacio de probabilidad, que todavía llevará a cabo si se considera una sub-universo acondicionando todo en otra variable, por ejemplo K . Por ejemplo, también significaría que .
^ Para ver que este es el caso, es necesario darse cuenta de que Pr ( R ∩ B | Y ) es la probabilidad de una superposición de R y B (el área sombreada de color púrpura) en elárea Y. Dado que, en la imagen de la izquierda, hay dos cuadrados donde R y B se superponen dentro delárea Y , y elárea Y tiene doce cuadrados, Pr ( R ∩ B | Y ) =2/12 = 1/6. Del mismo modo, Pr ( R | Y ) = 4/12 = 1/3y Pr ( B | Y ) = 6/12 = 1/2.
^ a b J Pearl, Causalidad: modelos, razonamiento e inferencia, 2000, Cambridge University Press
^Pearl, Judea; Paz, Azaria (1985). "Grafoides: una lógica basada en gráficos para razonar sobre relaciones de relevancia". Falta o vacío |url=( ayuda )
^Pearl, Judea (1988). Razonamiento probabilístico en sistemas inteligentes: redes de inferencia plausible . Morgan Kaufmann.
enlaces externos
Medios relacionados con la independencia condicional en Wikimedia Commons