La causalidad probabilística es un concepto en un grupo de teorías filosóficas que tienen como objetivo caracterizar la relación entre causa y efecto utilizando las herramientas de la teoría de la probabilidad . La idea central detrás de estas teorías es que las causas aumentan las probabilidades de sus efectos, en igualdad de condiciones .
Teoría determinista versus probabilística
Interpretación de la causalidad como un deterministas medios de relación que si A causa B , entonces A debe siempre ser seguido por B . En este sentido, la guerra no causa muertes, ni el tabaquismo causa cáncer . Como resultado, muchos recurren a una noción de causalidad probabilística. De manera informal, A probabilísticamente provoca B si A' ocurrencia s aumenta la probabilidad de B . Esto a veces se interpreta como un reflejo del conocimiento imperfecto de un sistema determinista, pero otras veces se interpreta que significa que el sistema causal en estudio tiene una naturaleza inherentemente indeterminista . (La probabilidad de propensión es una idea análoga, según la cual las probabilidades tienen una existencia objetiva y no son solo limitaciones en el conocimiento de un sujeto).
Filósofos como Hugh Mellor [1] y Patrick Suppes [2] han definido la causalidad en términos de una causa que precede y aumenta la probabilidad del efecto. (Además, Mellor afirma que la causa y el efecto son ambos hechos, no eventos, ya que incluso un no evento, como la falla de un tren en llegar, puede causar efectos como que yo tome el autobús. Suppes, por el contrario, se basa en eventos definidos en teoría de conjuntos, y gran parte de su discusión se basa en esta terminología). [3]
Pearl [4] sostiene que toda la empresa de la causalidad probabilística se ha equivocado desde el principio, porque la noción central que las causas "aumentan las probabilidades" de sus efectos no puede expresarse en el lenguaje de la teoría de la probabilidad. En particular, la desigualdad Pr (efecto | causa)> Pr (efecto | ~ causa) que los filósofos invocaron para definir la causalidad, así como sus muchas variaciones y matices, no logra captar la intuición detrás del "aumento de probabilidad", que es inherentemente un noción manipuladora o contrafáctica.
La formulación correcta, según Pearl, debería decir:
donde hacerlo (C) representa una intervención externa que obliga a la verdad de C . La probabilidad condicional Pr (E | C) , por el contrario, representa una probabilidad resultante de una observación pasiva de C , y rara vez coincide con Pr (E | do (C)) . De hecho, observar la caída del barómetro aumenta la probabilidad de que venga una tormenta, pero no "causa" la tormenta; si el acto de manipular el barómetro para cambiar la probabilidad de tormentas, la caída del barómetro calificaría como una causa de tormentas. En general, formular la noción de "aumento de probabilidad" dentro del cálculo de do- operadores [4] resuelve las dificultades que la causalidad probabilística ha encontrado en el último medio siglo, [2] [5] [6] entre ellos el infame Simpson paradoja , y aclara con precisión qué relaciones existen entre probabilidades y causalidad.
El establecimiento de causa y efecto, incluso con esta lectura relajada, es notoriamente difícil, expresado por la declaración ampliamente aceptada "La correlación no implica causalidad ". Por ejemplo, la observación de que los fumadores tienen una tasa de cáncer de pulmón drásticamente aumentada no establece que el tabaquismo deba ser una causa de esa tasa de cáncer aumentada: tal vez exista un cierto defecto genético que causa cáncer y un anhelo por la nicotina; o incluso quizás el ansia de nicotina es un síntoma de cáncer de pulmón en una etapa muy temprana que de otra manera no es detectable. Los científicos siempre están buscando los mecanismos exactos por los cuales Evento A produce Evento B . Pero los científicos también se sienten cómodos haciendo una afirmación como: "Fumar probablemente causa cáncer", cuando la correlación estadística entre los dos, según la teoría de la probabilidad, es mucho mayor que el azar. En este enfoque dual, los científicos aceptan tanto la causalidad determinista como la probabilística en su terminología.
En las estadísticas , se acepta generalmente que los estudios observacionales (como contar los casos de cáncer entre fumadores y no fumadores y luego comparar los dos) pueden dar pistas, pero nunca pueden establecer causa y efecto. Sin embargo, a menudo, los supuestos causales cualitativos (por ejemplo, la ausencia de causalidad entre algunas variables) pueden permitir la derivación de estimaciones consistentes del efecto causal a partir de estudios observacionales. [4]
El estándar de oro para la causalidad aquí es el experimento aleatorio : tome una gran cantidad de personas, divídalas al azar en dos grupos, obligue a un grupo a fumar y prohíba que el otro grupo fume, luego determine si un grupo desarrolla una tasa de cáncer de pulmón significativamente más alta . La asignación aleatoria juega un papel crucial en la inferencia de la causalidad porque, a largo plazo, hace que los dos grupos sean equivalentes en términos de todos los demás efectos posibles sobre el resultado (cáncer), de modo que cualquier cambio en el resultado reflejará solo la manipulación ( de fumar). Obviamente, por razones éticas, este experimento no se puede realizar, pero el método es ampliamente aplicable para experimentos menos dañinos. Sin embargo, una limitación de los experimentos es que, si bien hacen un buen trabajo al probar la presencia de algún efecto causal, no lo hacen tan bien para estimar el tamaño de ese efecto en una población de interés. (Esta es una crítica común a los estudios de seguridad de los aditivos alimentarios que usan dosis mucho más altas que las que las personas que consumen el producto realmente ingerirían).
Sistemas cerrados versus abiertos
En un sistema cerrado, los datos pueden sugerir que la causa A * B precede al efecto C en un intervalo de tiempo definido τ . Esta relación puede determinar la causalidad con una confianza limitada por τ . Sin embargo, esta misma relación puede no ser determinista con confianza en un sistema abierto donde factores incontrolados pueden afectar el resultado. [7]
Un ejemplo sería un sistema de A, B y C, donde se conocen A, B y C. Las características están a continuación y se limitan a un tiempo determinado (como 50 ms o 50 horas):
^ A * ^ B => ^ C (99,9999998027%)
A * ^ B => ^ C (99,9999998027%)
^ A * B => ^ C (99,9999998027%)
A * B => C (99,9999998027%)
Uno puede razonablemente afirmar, dentro de 6 desviaciones estándar , que A * B causa C dado el límite de tiempo (como 50 ms o 50 horas) SI Y solo SI A, B y C son las únicas partes del sistema en cuestión. Cualquier resultado fuera de esto puede considerarse una desviación.
Notas
- ^ Mellor, DH (1995) Los hechos de la causalidad , Routledge, ISBN 0-415-19756-2
- ↑ a b Suppes, P. (1970) Una teoría probabilística de la causalidad , Amsterdam: North-Holland Publishing
- ^ Enciclopedia de Filosofía de Stanford: Interpretaciones de probabilidad
- ↑ a b c Pearl, Judea (2000). Causalidad: modelos, razonamiento e inferencia, Cambridge University Press.
- ^ Cartwright, N. (1989). Las capacidades de la naturaleza y su medición, Claredon Press, Oxnard.
- ^ Eells, E. (1991). Causalidad probabilística Cambridge University Press, Cambridge, MA.
- ^ Condición de Markov: interpretaciones de la filosofía
Referencias
- Hitchcock, Christopher. "Causalidad probabilística" . En Zalta, Edward N. (ed.). Enciclopedia de Filosofía de Stanford .