En teoría de probabilidad y estadística , el término propiedad de Markov se refiere a la propiedad sin memoria de un proceso estocástico . Lleva el nombre del matemático ruso Andrey Markov . [1] El término propiedad fuerte de Markov es similar a la propiedad de Markov, excepto que el significado de "presente" se define en términos de una variable aleatoria conocida como tiempo de parada .
El término suposición de Markov se utiliza para describir un modelo en el que se supone que se cumple la propiedad de Markov, como un modelo de Markov oculto .
Un campo aleatorio de Markov extiende esta propiedad a dos o más dimensiones o variables aleatorias definidas para una red interconectada de elementos. [2] Un ejemplo de modelo para tal campo es el modelo Ising .
Un proceso estocástico de tiempo discreto que satisface la propiedad de Markov se conoce como cadena de Markov .
Introducción
Un proceso estocástico tiene la propiedad de Markov si la distribución de probabilidad condicional de los estados futuros del proceso (condicionada a los valores pasados y presentes) depende sólo del estado presente; es decir, dado el presente, el futuro no depende del pasado. Se dice que un proceso con esta propiedad es de Markov o un proceso de Markov . El proceso de Markov más famoso es una cadena de Markov . El movimiento browniano es otro proceso de Markov bien conocido.
Historia
Definición
Dejar ser un espacio de probabilidad con una filtración , para algunos conjuntos de índices ( totalmente ordenados ); y dejaser un espacio medible . A-proceso estocástico valorado adaptado a la filtración posee la propiedad de Markov si, para cada y cada con ,
En el caso donde es un conjunto discreto con el álgebra sigma discreta y, esto se puede reformular de la siguiente manera:
Formulaciones alternativas
Alternativamente, la propiedad de Markov se puede formular como sigue.
para todos y acotado y medible. [4]
Fuerte propiedad de Markov
Suponer que es un proceso estocástico en un espacio de probabilidad con filtración natural . Entonces por cualquier tiempo de parada en , podemos definir
- .
Luego se dice que tiene la propiedad fuerte de Markov si, para cada tiempo de parada , condicionado al evento , tenemos eso para cada , es independiente de dado .
La propiedad de Markov fuerte implica la propiedad de Markov ordinaria ya que al tomar el tiempo de parada , se puede deducir la propiedad ordinaria de Markov. [5]
En la previsión
En los campos del modelado predictivo y el pronóstico probabilístico , la propiedad de Markov se considera deseable ya que puede permitir el razonamiento y la resolución del problema que de otro modo no sería posible resolver debido a su intratabilidad . Este modelo se conoce como modelo de Markov .
Ejemplos de
Suponga que una urna contiene dos bolas rojas y una verde. Ayer se extrajo una bola, hoy se extrajo una bola y mañana se sacará la bola final. Todos los sorteos son "sin reemplazo".
Suponga que sabe que la bola de hoy era roja, pero no tiene información sobre la bola de ayer. La probabilidad de que la bola de mañana sea roja es 1/2. Eso es porque los únicos dos resultados restantes de este experimento aleatorio son:
Día | Resultado 1 | Resultado 2 |
---|---|---|
Ayer | rojo | Verde |
Hoy | rojo | rojo |
Mañana | Verde | rojo |
Por otro lado, si sabe que tanto las bolas de hoy como las de ayer fueron rojas, entonces tiene la garantía de obtener una bola verde mañana.
Esta discrepancia muestra que la distribución de probabilidad del color de mañana depende no solo del valor presente, sino que también se ve afectada por la información sobre el pasado. Este proceso estocástico de colores observados no tiene la propiedad de Markov. Usando el mismo experimento anterior, si el muestreo "sin reemplazo" se cambia por el muestreo "con reemplazo", el proceso de colores observados tendrá la propiedad de Markov. [6]
Una aplicación de la propiedad de Markov en una forma generalizada es en los cálculos de Monte Carlo de la cadena de Markov en el contexto de las estadísticas bayesianas .
Ver también
- Condición causal de Markov
- Ecuación de Chapman-Kolmogorov
- Histéresis
- Manta de markov
- Cadena de Markov
- Proceso de decisión de Markov
- Modelo de Markov
Referencias
- ^ Markov, AA (1954). Teoría de algoritmos . [Traducido por Jacques J. Schorr-Kon y personal del PST] Pie de imprenta Moscú, Academia de Ciencias de la URSS, 1954 [Jerusalén, Programa de Israel para Traducciones Científicas, 1961; disponible en la Oficina de Servicios Técnicos, Departamento de Comercio de los Estados Unidos ] Se agregó tp en la traducción rusa de obras del Instituto de Matemáticas, Academia de Ciencias de la URSS, v. 42. Título original: Teoriya algorifmov . [QA248.M2943 Biblioteca de Dartmouth College. Departamento de Comercio de EE. UU., Oficina de Servicios Técnicos, número OTS 60-51085.]
- ^ Esquiva, Yadolah . (2006) Diccionario de términos estadísticos de Oxford , Oxford University Press . ISBN 0-19-850994-4
- ^ Durrett, Rick . Probabilidad: teoría y ejemplos . Cuarta edición. Prensa de la Universidad de Cambridge , 2010.
- ^ Øksendal, Bernt K. (2003). Ecuaciones diferenciales estocásticas: una introducción con aplicaciones . Springer, Berlín. ISBN 3-540-04758-1.
- ^ Ethier, Stewart N. y Kurtz, Procesos de Thomas G. Markov: caracterización y convergencia . Serie de Willey en Probability and Mathematical Statistics, 1986. (ver página 158)
- ^ "Ejemplo de un proceso estocástico que no tiene la propiedad de Markov" . Stack Exchange . Consultado el 7 de julio de 2020 .