Elección discreta dinámica


Los modelos dinámicos de elección discreta (DDC) , también conocidos como modelos de elección discreta de programación dinámica , modelan las elecciones de un agente sobre opciones discretas que tienen implicaciones futuras. En lugar de asumir que las elecciones observadas son el resultado de la maximización de la utilidad estática, se supone que las elecciones observadas en los modelos DDC resultan de la maximización del valor presente de la utilidad por parte de un agente, lo que generaliza la teoría de la utilidad en la que se basan los modelos de elección discreta . [1]

El objetivo de los métodos DDC es estimar los parámetros estructurales del proceso de decisión del agente. Una vez que se conocen estos parámetros, el investigador puede usar las estimaciones para simular cómo se comportaría el agente en un estado contrafáctico del mundo. (Por ejemplo, cómo cambiaría la decisión de inscripción de un posible estudiante universitario en respuesta a un aumento de la matrícula).

El problema de maximización del agente se puede escribir matemáticamente de la siguiente manera:

Es estándar imponer las siguientes suposiciones simplificadoras y la notación del problema de decisión dinámica:

La utilidad de flujo se puede escribir como una suma aditiva, que consta de elementos deterministas y estocásticos. El componente determinista se puede escribir como una función lineal de los parámetros estructurales .

Definido por la función de valor ex ante para el individuo en el período justo antes de que se revele: