En la teoría de la probabilidad , la dependencia condicional es una relación entre dos o más eventos que son dependientes cuando ocurre un tercer evento. [1] [2] Por ejemplo, si A y B son dos eventos que aumentan individualmente la probabilidad de un tercer evento C , y no se afectan directamente entre sí, entonces inicialmente (cuando no se ha observado si el evento C ocurre)
Pero suponga que ahora se observa que ocurre C. Si ocurre el evento B, la probabilidad de que ocurra el evento A disminuirá porque su relación positiva con C es menos necesaria como explicación para la ocurrencia de C (de manera similar, el evento A que ocurra disminuirá la probabilidad de que ocurra B ). Por lo tanto, ahora los dos eventos A y B dependen condicionalmente negativamente el uno del otro porque la probabilidad de que ocurra cada uno depende negativamente de si ocurre el otro. Tenemos
La dependencia condicional es diferente de la independencia condicional . En la independencia condicional, dos eventos (que pueden ser dependientes o no) se vuelven independientes dada la ocurrencia de un tercer evento. [6]
Ejemplo
En esencia, la probabilidad está influenciada por la información de una persona sobre la posible ocurrencia de un evento. Por ejemplo, deje que el evento A sea "Tengo un teléfono nuevo"; el evento B sea 'Tengo un reloj nuevo'; y el evento C sea 'Soy feliz'; y supongamos que tener un teléfono nuevo o un reloj nuevo aumenta la probabilidad de ser feliz. Supongamos que ha ocurrido el evento C, es decir, "soy feliz". Ahora, si otra persona ve mi nuevo reloj, pensará que mi nuevo reloj aumentó mi probabilidad de ser feliz, por lo que hay menos necesidad de atribuir mi felicidad a un nuevo teléfono.
Para hacer el ejemplo más específico numéricamente, suponga que hay cuatro estados posibles, dados en las cuatro columnas de la siguiente tabla, en los que la ocurrencia del evento A está representada por un 1 en la fila A y su no ocurrencia está representada por un 0 (y lo mismo para B y C ):
probabilidad | 1/4 | 1/4 | 1/4 | 1/4 |
---|---|---|---|---|
A | 0 | 1 | 0 | 1 |
B | 0 | 0 | 1 | 1 |
C | 0 | 1 | 1 | 1 |
En este ejemplo, C se produce si y sólo si al menos uno de A , B se produce. Incondicionalmente (es decir, sin referencia a C ), A y B son independientes entre sí porque P ( A ), la suma de las probabilidades asociadas con un 1 en la fila A, esmientras que P ( A | B) = P ( A y B ) / P ( B ) == P ( A ). Pero con la condición de que haya ocurrido C (las últimas tres columnas de la tabla), tenemos P ( A | C ) = P ( A y C ) / P ( C ) =mientras que P ( A | C y B ) = P ( A y C y B ) / P ( C y B ) =
A | C ). Dado que en la presencia de C la probabilidad de A se ve afectada por la presencia o ausencia de B , A y B son mutuamente condicional depende de C .Ver también
Referencias
- ^ Introducción a la inteligencia artificial por Sebastian Thrun y Peter Norvig, 2011 "Unidad 3: Dependencia condicional" [ enlace muerto permanente ]
- ^ Introducción al aprendizaje de redes bayesianas a partir de datos por Dirk Husmeier [1] "Introducción al aprendizaje de redes bayesianas a partir de datos -Dirk Husmeier"
- ^ Independencia condicional en teoría estadística "Independencia condicional en teoría estadística", AP Dawid " Archivado el 27 de diciembre de 2013 en la Wayback Machine.
- ^ Independencia probabilística en Britannica "Probabilidad-> Aplicaciones de probabilidad condicional-> independencia (ecuación 7)"
- ^ Introducción a la inteligencia artificial por Sebastian Thrun y Peter Norvig, 2011 "Unidad 3: Explicación" [ enlace muerto permanente ]
- ^ Independencia condicional en teoría estadística "Independencia condicional en teoría estadística", AP Dawid Archivado el 27 de diciembre de 2013 en la Wayback Machine.