Teoría de la decisión causal


De Wikipedia, la enciclopedia libre
Saltar a navegación Saltar a búsqueda

La teoría de la decisión causal es una teoría matemática destinada a determinar el conjunto de elecciones racionales en una situación dada. Es una escuela de pensamiento en teoría de decisiones . En términos informales, sostiene que la elección racional es aquella con las mejores consecuencias causales esperadas . Esta teoría a menudo se contrasta con la teoría de la decisión probatoria , que recomienda aquellas acciones que brindan el mejor resultado esperado condicional a la mejor evidencia sobre el mundo.

Descripción informal

De manera informal, la teoría de la decisión causal recomienda que el agente tome la decisión con las mejores consecuencias causales esperadas. Por ejemplo: si comer una manzana te hará feliz y comer una naranja te hará sentir triste, entonces sería racional que comieras la manzana. Una complicación es la noción de consecuencias causales esperadas . Imagina que comer una buena manzana te hará feliz y comer una mala manzana te entristecerá, pero no estás seguro de si la manzana es buena o mala. En este caso, no conoce los efectos causales de comer la manzana. En cambio, entonces, trabaja desde el esperadoefectos causales, donde estos dependerán de tres cosas: (1) la probabilidad de que crea que la manzana sea buena y la probabilidad de que crea que es mala; (2) lo feliz que te hace comer una buena manzana; y (3) lo triste que te pone comer una manzana podrida. En términos informales, la teoría de la decisión causal aconseja al agente que tome la decisión con los mejores efectos causales esperados.

Descripción formal

En un artículo de 1981, Allan Gibbard y William Harper explicaron la teoría de la decisión causal como la maximización de la utilidad esperada de una acción "calculada a partir de probabilidades de contrafactuales ": [1]

donde es la deseabilidad del resultado y es la probabilidad contrafactual que, si se hiciera, se mantendría.

Diferencia de la teoría de la decisión probatoria

David Lewis demostró [2] que la probabilidad de un condicional no siempre es igual a la probabilidad condicional . [3] (ver también el resultado de la trivialidad de Lewis ) Si ese fuera el caso, la teoría de la decisión causal sería equivalente a la teoría de la decisión probatoria, que usa probabilidades condicionales.

Gibbard y Harper demostraron que si aceptamos dos axiomas (uno relacionado con el controvertido principio del medio excluido condicional [4] ), entonces la independencia estadística de y es suficiente para garantizarlo . Sin embargo, hay casos en los que las acciones y los condicionales no son independientes. Gibbard y Harper dan un ejemplo en el que el rey David quiere a Betsabé pero teme que convocarla provoque una revuelta.

Además, David ha estudiado trabajos sobre psicología y ciencias políticas que le enseñan lo siguiente: Los reyes tienen dos tipos de personalidad, carismáticos y no carismáticos. El grado de carisma de un rey depende de su estructura genética y de sus experiencias en la primera infancia, y no se puede cambiar en la edad adulta. Ahora, los reyes carismáticos tienden a actuar con justicia y los reyes no carismáticos de manera injusta. Las revueltas exitosas contra reyes carismáticos son raras, mientras que las revueltas exitosas contra reyes no carismáticos son frecuentes. Sin embargo, los actos injustos en sí mismos no causan revueltas exitosas; La razón por la que los reyes poco carismáticos son propensos a tener éxito en revueltas es que tienen un porte furtivo e innoble. David no sabe si es carismático o no; él sabe que es injusto llamar a la esposa de otro hombre. (pág.164)

En este caso, la teoría de la decisión probatoria recomienda que David se abstenga de Betsabé, mientras que la teoría de la decisión causal, que señala que no se puede cambiar si David es carismático o no, recomienda enviar a buscarla.

Cuando se les pide que elijan entre la teoría de la decisión causal y la teoría de la decisión por evidencia, los filósofos generalmente prefieren la teoría de la decisión causal. [5]

Crítica

Vaguedad

La teoría de la teoría de la decisión causal (CDT) no especifica en sí misma qué algoritmo utilizar para calcular las probabilidades contrafácticas. [4] Una propuesta es la técnica de "imagen" sugerida por Lewis: [6] Para evaluar , mueva la masa de probabilidad de cada mundo posible al mundo posible más cercano en el que se sostiene, asumiendo que es posible. Sin embargo, este procedimiento requiere que sepamos lo que creeríamos si estuviéramos seguros ; esto es en sí mismo un condicional al que podríamos asignar una probabilidad menor que 1, lo que lleva a una regresión. [4]

Contraejemplos

Hay innumerables "contraejemplos" en los que, se argumenta, una aplicación sencilla de la CDT no produce una decisión defendible "cuerda". El filósofo Andy Egan sostiene que esto se debe a una desconexión fundamental entre la regla racional intuitiva, "haz lo que esperas producirá los mejores resultados", y el algoritmo de CDT de "haz lo que tenga el mejor resultado esperado, manteniendo fijas nuestras opiniones iniciales sobre el probable estructura causal del mundo ". Desde este punto de vista, el requisito de la CDT de "mantener fijas las credenciales incondicionales del agente en hipótesis de dependencia" conduce a decisiones irracionales. [7]

Un supuesto contraejemplo temprano es el problema de Newcomb . Debido a que su elección de una o dos casillas no puede afectar causalmente la suposición del Predictor, la teoría de la decisión causal recomienda la estrategia de las dos casillas. [1] Sin embargo, esto da como resultado obtener solo $ 1,000, no $ 1,000,000. Los filósofos no están de acuerdo sobre si el boxeo de uno o el de dos es la estrategia "racional". [8] Pueden surgir preocupaciones similares incluso en problemas aparentemente sencillos como el dilema del prisionero , [9] especialmente cuando juegas frente a tu "gemelo", cuya elección de cooperar o fallar se correlaciona fuertemente, pero no es causada por tu propia elección. [10]

En el escenario de "Muerte en Damasco", una "Muerte" antropomórfica predice dónde estarás mañana y va a esperarte allí. Como en el problema de Newcomb, postulamos que la muerte es un predictor confiable. Un agente de CDT no podría procesar la correlación y, como consecuencia, podría tomar decisiones irracionales: [7] [11] [12] "Deberías jugar al escondite contra alguien que no puede predecir dónde te escondes que contra alguien quién puede. La teoría de la decisión causal niega esto. Así que la teoría de la decisión causal es falsa ". [13]

Recientemente, se han propuesto algunas variantes de Muerte en Damasco en las que, siguiendo las recomendaciones de la CDT, se pierde voluntariamente dinero o, en relación con ello, se renuncia a una recompensa garantizada. [14] [15] [16] Un ejemplo es la Oferta Adversaria: [15]"Se ofrecen dos cajas. Un comprador puede comprar una o ninguna de las cajas, pero no ambas. Cada una de las dos cajas cuesta $ 1. Ayer, el vendedor puso $ 3 en cada caja que predijo que el comprador no adquiriría. Tanto el vendedor y el comprador cree que la predicción del vendedor es precisa con una probabilidad de 0,75 ". Adoptando la perspectiva del comprador, CDT razona que al menos una caja contiene $ 3. Por lo tanto, la caja promedio contiene al menos $ 1.50 en valor causal esperado, que es más que el costo. Por lo tanto, CDT requiere comprar una de las dos cajas. Sin embargo, esto es rentable para el vendedor.

Otro contraejemplo reciente es el "Botón psicópata": [7] [17]

Paul está debatiendo si presionar el botón 'matar a todos los psicópatas'. Piensa que sería mucho mejor vivir en un mundo sin psicópatas. Desafortunadamente, Paul está bastante seguro de que solo un psicópata presionaría ese botón. Paul prefiere mucho vivir en un mundo con psicópatas a morir. ¿Paul debería presionar el botón?

Según Egan, "casi todo el mundo" está de acuerdo en que Paul no debería presionar el botón, pero CDT respalda presionar el botón. [7]

El filósofo Jim Joyce, quizás el defensor moderno más prominente de la CDT, [18] sostiene que la CDT, naturalmente, es capaz de tomar en cuenta cualquier "información sobre lo que uno está inclinado o es probable que haga como evidencia". Esta interpretación de CDT requeriría resolver problemas adicionales: ¿Cómo puede un agente de CDT evitar tropezar con creencias relacionadas con sus propios actos futuros y, por lo tanto, volverse demostrablemente inconsistente a través de la incompletitud de Gödelia y el teorema de Löb ? ¿Cómo evita el agente parado en un acantilado inferir que si saltara, probablemente tendría un paracaídas para frenar su caída? [19] [20]

Alternativas a la teoría de la decisión causal y probatoria

Algunos estudiosos creen que es necesario construir una nueva teoría de la decisión desde cero. El filósofo Christopher Meacham propone la "maximización cohesiva de la utilidad esperada": un agente "debe realizar el acto elegido por una estrategia integral que maximice la utilidad cohesiva esperada". Meacham también propone que esto puede extenderse a la "Maximización de la utilidad esperada cohesiva global" para permitir la cooperación entre agentes al estilo de la superracionalidad . [21] [22] En el contexto de la inteligencia artificial, el pionero de bitcoin Wei Dai propone una "teoría de la decisión sin actualización", que agrega a los mecanismos de cohesión global el concepto ciertamente difícil de "contrafactuales lógicos" para evitar ser chantajeado: [21]

Piense en un agente que pagaría en respuesta a un chantaje hipotético. El chantajista predeciría esto y chantajearía al agente. Ahora, en cambio, considere a un agente que se negaría a pagar en respuesta a un chantaje contrafactual ... El chantajista también predeciría esto, y por lo tanto no chantajearía al agente. Por lo tanto, si estamos construyendo un agente que podría encontrarse con un chantaje contrafactual, entonces es una mejor política general construir un agente que se niegue a pagar cuando se le chantajee de esta manera.

Es una cuestión abierta si existe una formalización satisfactoria de los contrafactuales lógicos. [23] [24]

Ver también

  • Toma de decisiones
  • Teoría de la decisión probatoria
  • Hipótesis de utilidad esperada
  • Teoría de juego
  • La paradoja de Newcomb

Notas

  1. ^ a b Gibbard, A .; Harper, WL (1981), "Contrafactuales y dos tipos de utilidad esperada", Si : condicionales, creencias, decisión, azar y tiempo : 153-190
  2. ^ Lewis, D. (1976), "Probabilidades de condicionales y probabilidades condicionales", The Philosophical Review , 85 (3): 297–315, doi : 10.2307 / 2184045 , JSTOR 2184045 
  3. ^ De hecho, Lewis demostró un resultado más sólido: "si una clase de funciones de probabilidad se cierra bajo condicionalización, entonces no puede haber condicional de probabilidad para esa clase a menos que la clase consista enteramente en funciones de probabilidad triviales", donde una función de probabilidad trivial es una que "nunca asigna probabilidad positiva a más de dos alternativas incompatibles y, por lo tanto, tiene un valor máximo de cuatro [...]".
  4. ^ a b c Shaffer, Michael John (2009), "Teoría de la decisión, planificación inteligente y contrafactuales", Mentes y máquinas , 19 (1): 61–92, doi : 10.1007 / s11023-008-9126-2
  5. ^ Weirich, Paul, "Teoría de la decisión causal", The Stanford Encyclopedia of Philosophy (Edición de invierno de 2016), Edward N. Zalta (ed.), URL = plato .stanford .edu / archives / win2016 / entries / decision-causal /
  6. ^ Lewis, D. (1981), "Causal teoría de la decisión" (PDF) , Australasian Journal of Filosofía , 59 (1): 5-30, doi : 10.1080 / 00048408112340011 , recuperado 2009-05-29
  7. ^ a b c d Egan, A. (2007), "Algunos contraejemplos de la teoría de la decisión causal" (PDF) , The Philosophical Review , 116 (1): 93-114, CiteSeerX 10.1.1.642.5936 , doi : 10.1215 / 00318108 -2006-023 , archivado desde el original (PDF) el 2017-03-11 , consultado el 2017-07-27  
  8. ^ Bellos, Alex (28 de noviembre de 2016). "El problema de Newcomb divide a los filósofos. ¿De qué lado estás?" . The Guardian . Consultado el 27 de julio de 2017 .
  9. ^ Lewis, D. (1979), "El dilema de los prisioneros es un problema de Newcomb", Filosofía y asuntos públicos , 8 (3): 235-240, JSTOR 2265034 
  10. ^ Howard, JV (mayo de 1988). "Cooperación en el dilema del prisionero". Teoría y Decisión . 24 (3): 203–213. doi : 10.1007 / BF00148954 .
  11. ^ Meacham, Christopher JG. "Encuadernación y sus consecuencias". Estudios filosóficos 149.1 (2010): 49-71.
  12. ^ Harper, William (enero de 1984). "Ratificabilidad y teoría de la decisión causal: comentarios sobre Eells y Seidenfeld". PSA: Actas de la Reunión Bienal de la Asociación de Filosofía de la Ciencia . 1984 (2): 213–228. doi : 10.1086 / psaprocbienmeetp.1984.2.192506 .
  13. ^ Ahmed, A. (1 de septiembre de 2014). "Cortar en dados con la muerte". Análisis . 74 (4): 587–592. doi : 10.1093 / analys / anu084 . hdl : 1885/35014 .
  14. ^ Spencer, J. (2020), "Un argumento contra la teoría de la decisión causal" (PDF) , Análisis , doi : 10.1093 / analys / anaa037 , consultado el 23 de abril de 2021
  15. ↑ a b Oesterheld, C .; Conitzer, V. (2021), "Extracting Money from Causal Decision Theorists" , The Philosophical Quarterly , doi : 10.1093 / pq / pqaa086 , consultado el 23 de abril de 2021
  16. ^ Joyce, James M., ¿ Otra refutación más de la teoría de la decisión causal? (PDF) (diapositivas de presentación) , consultado el 23 de abril de 2021
  17. ^ Chicharrones, Hilary. "Teoría de la decisión epistémica". Mind 122.488 (2013): 915-952.
  18. ^ Wedgwood, Ralph. "La solución de Gandalf al problema de Newcomb". Síntesis (2013): 1-33.
  19. ^ Weirich, Paul, "Teoría de la decisión causal", The Stanford Encyclopedia of Philosophy (Edición de invierno de 2016), Edward N. Zalta (ed.), URL = plato .stanford .edu / archives / win2016 / entries / decision-causal /
  20. ^ Joyce, James M. "Arrepentimiento e inestabilidad en la teoría de la decisión causal". Synthese 187.1 (2012): 123-145.
  21. ^ a b Soares, Nate y Benja Fallenstein. "Hacia la teoría de la decisión idealizada". Instituto de Investigación en Inteligencia de Máquina. 2014.
  22. ^ Meacham, Christopher JG. "Encuadernación y sus consecuencias". Estudios filosóficos 149.1 (2010): 49-71.
  23. ^ Nate Soares y Benja Fallenstein. Contraposibles como necesarios para la teoría de la decisión. En Inteligencia General Artificial. Springer, 2015.
  24. ^ Everitt, Tom, Jan Leike y Marcus Hutter. "Extensiones secuenciales de la teoría de la decisión causal y evidencial". Conferencia Internacional sobre Teoría de la Decisión Algorítmica. Springer, Cham, 2015.

enlaces externos

  • Teoría de la decisión causal en la Enciclopedia de Filosofía de Stanford
  • La lógica de los condicionales en la Enciclopedia de Filosofía de Stanford
Obtenido de " https://en.wikipedia.org/w/index.php?title=Causal_decision_theory&oldid=1021194623 "