En la teoría de la probabilidad , la probabilidad condicional es una medida de la probabilidad de que ocurra un evento , dado que ya ha ocurrido otro evento (por suposición, presunción, afirmación o evidencia). [1] Si el evento de interés es A y se sabe o se supone que ocurrió el evento B , "la probabilidad condicional de A dado B ", o "la probabilidad de A bajo la condición B ", generalmente se escribe como P ( A | B ) , [2] [3] o, a veces, PB ( A )oP ( A / B ). Por ejemplo, la probabilidad de que una persona determinada tenga tos en un día determinado puede ser solo del 5%. Pero si sabemos o asumimos que la persona está enferma, es mucho más probable que esté tosiendo. Por ejemplo, la probabilidad condicional de que alguien no esté bien tosiendo podría ser del 75%, en cuyo caso tendríamos queP (Tos)= 5% yP (Tos | Enfermo)= 75%.
La probabilidad condicional es uno de los conceptos más importantes y fundamentales de la teoría de la probabilidad. [4] Pero las probabilidades condicionales pueden ser bastante escurridizas y pueden requerir una interpretación cuidadosa. [5] Por ejemplo, no es necesario que exista una relación causal entre A y B , y no es necesario que ocurran simultáneamente.
P ( A | B ) puede o no ser igual a P ( A ) (la probabilidad incondicional de A ). Si P ( A | B ) = P ( A ) , entonces se dice que los eventos A y B son independientes : en tal caso, el conocimiento sobre cualquiera de los eventos no altera la probabilidad de los demás. P ( A | B ) (la probabilidad condicional de A dado B ) normalmente difiere de P ( B | A ) . Por ejemplo, si una persona tiene dengue , podría tener un 90% de probabilidades de dar positivo en una prueba de dengue. En este caso, lo que se está midiendo es que si ha ocurrido el evento B ("tener dengue"), la probabilidad de A (la prueba es positiva ) dado que B ( tener dengue ) ocurrió es del 90%: es decir, P ( A | B ) = 90%. Alternativamente, si una persona da positivo en la prueba del dengue, es posible que solo tenga un 15% de probabilidades de tener esta rara enfermedad, porque la tasa de falsos positivos de la prueba puede ser alta. En este caso, lo que se mide es la probabilidad del evento B ( tener dengue ) dado que ha ocurrido el evento A ( prueba positiva ): P ( B | A ) = 15%. Igualar falsamente las dos probabilidades puede conducir a varios errores de razonamiento, como la falacia de la tasa base . Las probabilidades condicionales se pueden invertir utilizando el teorema de Bayes .
Las probabilidades condicionales se pueden mostrar en una tabla de probabilidad condicional .
Definición
Acondicionamiento en un evento
Definición kolmogorov
Dados dos eventos A y B del campo sigma de un espacio de probabilidad, con la probabilidad incondicional de que B sea mayor que cero (es decir, P ( B )> 0) , la probabilidad condicional de A dado B se define como el cociente de la probabilidad de la unión de los eventos A y B , y la probabilidad de B : [3] [6] [7]
dónde es la probabilidad de que ocurran los eventos A y B. Esto puede visualizarse como una restricción del espacio muestral a situaciones en las que ocurre B. La lógica detrás de esta ecuación es que si los posibles resultados para A y B se restringen a aquellos en los que ocurre B , este conjunto sirve como el nuevo espacio muestral.
Tenga en cuenta que la ecuación anterior es una definición, no un resultado teórico. Solo denotamos la cantidad como Y llamar la probabilidad condicional de A dado B .
Como axioma de probabilidad
Algunos autores, como de Finetti , prefieren introducir la probabilidad condicional como axioma de probabilidad :
Aunque matemáticamente equivalente, esto puede preferirse filosóficamente; bajo las principales interpretaciones de probabilidad , como la teoría subjetiva , la probabilidad condicional se considera una entidad primitiva. Además, este "axioma de multiplicación" introduce una simetría con el axioma de suma para eventos mutuamente excluyentes : [8]
Como la probabilidad de un evento condicional
La probabilidad condicional se puede definir como la probabilidad de un evento condicional . El evento condicional de Goodman-Nguyen-Van Fraassen se puede definir como
Se puede demostrar que
que cumple con la definición de Kolmogorov de probabilidad condicional.
Condicionamiento de un evento de probabilidad cero
Si , luego de acuerdo con la definición, no está definido .
El caso de mayor interés es el de una variable aleatoria Y , condicionada a una variable aleatoria continua X que da como resultado un resultado particular x . El evento tiene probabilidad cero y, como tal, no se puede condicionar.
En lugar de condicionar que X sea exactamente x , podríamos condicionar que esté más cerca que la distancialejos de x . El eventogeneralmente tendrá una probabilidad distinta de cero y, por lo tanto, se puede condicionar. Entonces podemos tomar el límite
Por ejemplo, si dos variables aleatorias continuas X e Y tienen una densidad conjunta, luego por la regla de L'Hôpital :
El límite resultante es la distribución de probabilidad condicional de Y dado X y existe cuando el denominador, la densidad de probabilidad, es estrictamente positivo.
Es tentador definir la probabilidad indefinidautilizando este límite, pero esto no se puede hacer de manera consistente. En particular, es posible encontrar variables aleatorias X y W y valores x , w tales que los eventos y son idénticos pero los límites resultantes no son: [9]
La paradoja de Borel-Kolmogorov lo demuestra con un argumento geométrico.
Condicionamiento de una variable aleatoria
Deje que X sea una variable aleatoria y sus posibles resultados denotado V . Por ejemplo, si X representa el valor de un dado lanzado, entonces V es el conjunto. Supongamos, en aras de la presentación, que X es una variable aleatoria discreta, de modo que cada valor de V tiene una probabilidad distinta de cero.
Para un valor x en V y un evento A , la probabilidad condicional viene dada por. Escritura
para abreviar, vemos que se trata de una función de dos variables, X y A .
Para una A fija , podemos formar la variable aleatoria. Representa un resultado desiempre que se observe un valor x de X.
Por tanto, la probabilidad condicional de A dado X puede tratarse como una variable aleatoria Y con resultados en el intervalo. A partir de la ley de la probabilidad total , su valor esperado es igual a la incondicional probabilidad de A .
Probabilidad condicional parcial
La probabilidad condicional parcial se trata de la probabilidad de evento dado que cada uno de los eventos de condición ha ocurrido hasta cierto punto (grado de creencia, grado de experiencia) que puede ser diferente del 100%. Frecuentemente, la probabilidad condicional parcial tiene sentido, si las condiciones se prueban en repeticiones de experimentos de longitud apropiada. [10] Tales-La probabilidad condicional parcial limitada se puede definir como la ocurrencia promedio condicionalmente esperada de un evento en bancos de pruebas de longitud que se adhieren a todas las especificaciones de probabilidad , es decir:
En base a eso, la probabilidad condicional parcial se puede definir como
dónde [10]
La condicionalización de Jeffrey [11] [12] es un caso especial de probabilidad condicional parcial, en el que los eventos de condición deben formar una partición :
Ejemplo
Suponga que alguien lanza en secreto dos dados de seis caras y deseamos calcular la probabilidad de que el valor boca arriba del primero sea 2, dada la información de que su suma no es mayor que 5.
- Sea D 1 el valor obtenido en el dado 1.
- Sea D 2 el valor obtenido en el dado 2.
Probabilidad de que D 1 = 2
La Tabla 1 muestra el espacio muestral de 36 combinaciones de valores lanzados de los dos dados, cada uno de los cuales ocurre con una probabilidad de 1/36, con los números mostrados en las celdas de color rojo y gris oscuro siendo D 1 + D 2 .
D 1 = 2 en exactamente 6 de los 36 resultados; entonces P ( D 1 = 2) = 6 ⁄ 36 = 1 ⁄ 6 :
tabla 1 + D 2 1 2 3 4 5 6 D 1 1 2 3 4 5 6 7 2 3 4 5 6 7 8 3 4 5 6 7 8 9 4 5 6 7 8 9 10 5 6 7 8 9 10 11 6 7 8 9 10 11 12
Probabilidad de que D 1 + D 2 ≤ 5
La Tabla 2 muestra que D 1 + D 2 ≤ 5 para exactamente 10 de los 36 resultados, por lo tanto P ( D 1 + D 2 ≤ 5) = 10 ⁄ 36 :
Tabla 2 + D 2 1 2 3 4 5 6 D 1 1 2 3 4 5 6 7 2 3 4 5 6 7 8 3 4 5 6 7 8 9 4 5 6 7 8 9 10 5 6 7 8 9 10 11 6 7 8 9 10 11 12
Probabilidad de que D 1 = 2 dado que D 1 + D 2 ≤ 5
La Tabla 3 muestra que para 3 de estos 10 resultados, D 1 = 2.
Por lo tanto, la probabilidad condicional P ( D 1 = 2 | D 1 + D 2 ≤ 5) = 3 ⁄ 10 = 0,3:
Tabla 3 + D 2 1 2 3 4 5 6 D 1 1 2 3 4 5 6 7 2 3 4 5 6 7 8 3 4 5 6 7 8 9 4 5 6 7 8 9 10 5 6 7 8 9 10 11 6 7 8 9 10 11 12
Aquí, en la notación anterior para la definición de probabilidad condicional, el evento condicionante B es que D 1 + D 2 ≤ 5, y el evento A es D 1 = 2. Tenemos como se ve en la tabla.
Usar en inferencia
En la inferencia estadística , la probabilidad condicional es una actualización de la probabilidad de un evento basada en nueva información. [5] La nueva información puede incorporarse de la siguiente manera: [1]
- Sea A , el evento de interés, en el espacio muestral , digamos ( X , P ).
- La ocurrencia del evento A sabiendo que el evento B ha ocurrido o habrá ocurrido, significa la ocurrencia de A ya que está restringido a B , es decir.
- Sin el conocimiento de la ocurrencia de B , la información sobre la ocurrencia de A sería simplemente P ( A )
- La probabilidad de que A sepa que el evento B ha ocurrido o habrá ocurrido, será la probabilidad deen relación con P ( B ), la probabilidad de que B haya ocurrido.
- Esto resulta en siempre que P ( B )> 0 y 0 en caso contrario.
Este enfoque da como resultado una medida de probabilidad que es consistente con la medida de probabilidad original y satisface todos los axiomas de Kolmogorov . Esta medida de probabilidad condicional también podría haber resultado de suponer que la magnitud relativa de la probabilidad de A con respecto a X se conservará con respecto a B (cf. una Derivación formal a continuación).
La expresión "evidencia" o "información" se utiliza generalmente en la interpretación bayesiana de probabilidad . El evento condicionante se interpreta como evidencia del evento condicionado. Es decir, P ( A ) es la probabilidad de A antes de contabilizar la evidencia E , y P ( A | E ) es la probabilidad de A después de haber contabilizado la evidencia E o después de haber actualizado P ( A ). Esto es consistente con la interpretación frecuentista, que es la primera definición dada arriba.
Independencia estadística
Los eventos A y B se definen como estadísticamente independientes si
Si P ( B ) no es cero, entonces esto es equivalente a la afirmación de que
De manera similar, si P ( A ) no es cero, entonces
también es equivalente. Aunque las formas derivadas pueden parecer más intuitiva, que no son la definición preferida como las probabilidades condicionales pueden ser definidos, y la definición preferido es simétrica en A y B .
Eventos independientes frente a eventos mutuamente excluyentes
Los conceptos de eventos mutuamente independientes y eventos mutuamente excluyentes son separados y distintos. La siguiente tabla contrasta los resultados para los dos casos (siempre que la probabilidad del evento condicionante no sea cero).
Si es estadísticamente independiente | Si son mutuamente excluyentes | |
---|---|---|
0 | ||
0 | ||
0 |
De hecho, los eventos mutuamente excluyentes no pueden ser estadísticamente independientes (a menos que ambos sean imposibles), ya que saber que uno ocurre da información sobre el otro (en particular, que el último ciertamente no ocurrirá).
Falacias comunes
- Estas falacias no deben confundirse con la "falacia condicional" de Robert K. Shope de 1978 , que trata de ejemplos contrafácticos que plantean la cuestión .
Suponiendo que la probabilidad condicional es de tamaño similar a su inversa
En general, no se puede suponer que P ( A | B ) ≈ P ( B | A ). Esto puede ser un error insidioso, incluso para quienes están muy familiarizados con las estadísticas. [13] La relación entre P ( A | B ) y P ( B | A ) viene dada por el teorema de Bayes :
Es decir, P ( A | B ) ≈ P ( B | A ) solo si P ( B ) / P ( A ) ≈ 1, o equivalentemente, P ( A ) ≈ P ( B ).
Suponiendo que las probabilidades marginales y condicionales son de tamaño similar
En general, no se puede suponer que P ( A ) ≈ P ( A | B ). Estas probabilidades están vinculadas a través de la ley de probabilidad total :
donde los eventos formar una partición contable de.
Esta falacia puede surgir por sesgo de selección . [14] Por ejemplo, en el contexto de una reclamación médica, deja S C el evento de que una secuela (enfermedad crónica) S se produce como consecuencia de las circunstancias (condición aguda) C . Sea H el evento en el que un individuo busca ayuda médica. Suponga que en la mayoría de los casos, C no causa S (de modo que P ( S C ) es bajo). Supongamos también que la atención médica sólo si se solicita S se ha producido debido a C . Por la experiencia de los pacientes, un médico puede, por tanto, concluir erróneamente que la P ( S C ) es alta. La probabilidad real observada por el médico es P ( S C | H ).
A priori con sobreponderación o baja ponderación
No tener en cuenta la probabilidad previa de forma parcial o total se denomina negligencia de la tasa base . El ajuste inverso e insuficiente de la probabilidad previa es el conservadurismo .
Derivación formal
Formalmente, P ( A | B ) se define como la probabilidad de A de acuerdo con una nueva función de probabilidad en el espacio muestral, de manera que los resultados que no están en B tienen probabilidad 0 y que es consistente con todas las medidas de probabilidad originales . [15] [16]
Sea Ω un espacio muestral con eventos elementales { ω }, y sea P la medida de probabilidad con respecto al σ-álgebra de Ω. Suponga que se nos dice que ha ocurrido el evento B ⊆ Ω. Se asignará una nueva distribución de probabilidad (denotada por la notación condicional) en { ω } para reflejar esto. Todos los eventos que no están en B tendrán probabilidad nula en la nueva distribución. Para eventos en B , se deben cumplir dos condiciones: la probabilidad de B es uno y se deben preservar las magnitudes relativas de las probabilidades. El primero es requerido por los axiomas de probabilidad , y el segundo se deriva del hecho de que la nueva medida de probabilidad tiene que ser el análogo de P en el que la probabilidad de B es uno, y cada evento que no está en B , por lo tanto, tiene una probabilidad nula. Por lo tanto, para algún factor de escala α , la nueva distribución debe satisfacer:
Sustituyendo 1 y 2 en 3 para seleccionar α :
Entonces la nueva distribución de probabilidad es
Ahora para un evento general A ,
Ver también
- Teorema de Bayes
- Epistemología bayesiana
- Paradoja de Borel-Kolmogorov
- Regla de la cadena (probabilidad)
- Probabilidades de pertenencia a clases
- Independencia condicional
- Distribución de probabilidad condicional
- Acondicionamiento (probabilidad)
- Distribución de probabilidad conjunta
- Problema de Monty Hall
- Distribución independiente por pares
- Probabilidad posterior
- Probabilidad condicional regular
Referencias
- ↑ a b Gut, Allan (2013). Probabilidad: un curso de posgrado (segunda ed.). Nueva York, NY: Springer. ISBN 978-1-4614-4707-8.
- ^ "Lista de símbolos de probabilidad y estadística" . Bóveda de matemáticas . 2020-04-26 . Consultado el 11 de septiembre de 2020 .
- ^ a b "Probabilidad condicional" . www.mathsisfun.com . Consultado el 11 de septiembre de 2020 .
- ^ Ross, Sheldon (2010). Un primer curso de probabilidad (8ª ed.). Pearson Prentice Hall. ISBN 978-0-13-603313-4.
- ^ a b Casella, George; Berger, Roger L. (2002). Inferencia estadística . Prensa de Duxbury. ISBN 0-534-24312-6.
- ^ Kolmogorov, Andrey (1956), Fundamentos de la teoría de la probabilidad , Chelsea
- ^ "Probabilidad condicional" . www.stat.yale.edu . Consultado el 11 de septiembre de 2020 .
- ^ Gillies, Donald (2000); "Teorías filosóficas de la probabilidad"; Routledge; Capítulo 4 "La teoría subjetiva"
- ^ Gal, Yarin. "La paradoja de Borel-Kolmogorov" (PDF) .
- ^ a b c Draheim, Dirk (2017). "Condicionalización generalizada de Jeffrey (una semántica frecuentista de condicionalización parcial)" . Springer . Consultado el 19 de diciembre de 2017 .
- ^ Jeffrey, Richard C. (1983), La lógica de la decisión, segunda edición , University of Chicago Press, ISBN 9780226395821
- ^ "Epistemología bayesiana" . Enciclopedia de Filosofía de Stanford. 2017 . Consultado el 29 de diciembre de 2017 .
- ^ Paulos, JA (1988) Innumeracy: analfabetismo matemático y sus consecuencias , Hill y Wang. ISBN 0-8090-7447-8 (p. 63 y siguientes )
- ^ Thomas Bruss, F; Der Wyatt Earp Effekt; Spektrum der Wissenschaft; Marzo de 2007
- ^ George Casella y Roger L. Berger (1990), Inferencia estadística , Duxbury Press, ISBN 0-534-11958-1 (p. 18 y siguientes )
- ^ Introducción a la probabilidad de Grinstead y Snell , p. 134
enlaces externos
- Weisstein, Eric W. "Probabilidad condicional" . MathWorld .
- F. Thomas Bruss Der Wyatt-Earp-Effekt oder die betörende Macht kleiner Wahrscheinlichkeiten (en alemán), Spektrum der Wissenschaft (Edición alemana de Scientific American), Vol 2, 110-113, (2007).
- Explicación visual de la probabilidad condicional