La teoría de la renovación es la rama de la teoría de la probabilidad que generaliza el proceso de Poisson para tiempos de espera arbitrarios. En lugar de tiempos de espera distribuidos exponencialmente , un proceso de renovación puede tener tiempos de espera independientes e idénticamente distribuidos (IID) que tengan una media finita. Un proceso de renovación-recompensa además tiene una secuencia aleatoria de recompensas incurridas en cada tiempo de espera, que son IID pero no necesitan ser independientes de los tiempos de espera.
Un proceso de renovación tiene propiedades asintóticas análogas a la ley fuerte de los grandes números y al teorema del límite central . La función de renovación (número esperado de llegadas) y la función de recompensa (valor de recompensa esperado) son de importancia clave en la teoría de la renovación. La función de renovación satisface una ecuación integral recursiva, la ecuación de renovación. La ecuación de renovación de claves da el valor límite de la convolución de con una función no negativa adecuada. La superposición de procesos de renovación se puede estudiar como un caso especial de los procesos de renovación de Markov .
Las aplicaciones incluyen calcular la mejor estrategia para reemplazar maquinaria gastada en una fábrica y comparar los beneficios a largo plazo de diferentes pólizas de seguro. La paradoja de la inspección se relaciona con el hecho de que la observación de un intervalo de renovación en el tiempo t da un intervalo con un valor promedio mayor que el de un intervalo de renovación promedio.
El proceso de renovación es una generalización del proceso de Poisson . En esencia, el proceso de Poisson es un tiempo continuo proceso de Markov sobre los números enteros positivos (por lo general a partir de cero) que tiene independientes distribuidos exponencialmente tiempos de mantenimiento a cada entero antes de avanzar al siguiente entero, . En un proceso de renovación, los tiempos de espera no necesitan tener una distribución exponencial; más bien, los tiempos de espera pueden tener cualquier distribución en los números positivos, siempre que los tiempos de espera sean independientes e idénticamente distribuidos ( IID ) y tengan una media finita.
Definicion formal
Ejemplo de evolución de un proceso de renovación con tiempos de espera S i y tiempos de salto J n .
representa el número de saltos que se han producido en el tiempo t , y se denomina proceso de renovación.
Interpretación
Si se consideran eventos que ocurren en momentos aleatorios, se puede optar por pensar en los tiempos de espera como el tiempo aleatorio transcurrido entre dos eventos consecutivos. Por ejemplo, si el proceso de renovación está modelando el número de averías de diferentes máquinas, entonces el tiempo de espera representa el tiempo entre una máquina averiada antes que otra.
El proceso de Poisson es el proceso de renovación único con la propiedad de Markov , [1] ya que la distribución exponencial es la única variable aleatoria continua con la propiedad de la falta de memoria.
Procesos de renovación-recompensa
Ejemplo de evolución de un proceso de renovación-recompensa con tiempos de espera S i , tiempos de salto J n y recompensas W i
Sea una secuencia de variables aleatorias IID ( recompensas ) que satisfagan
Entonces la variable aleatoria
se llama proceso de renovación-recompensa . Tenga en cuenta que, a diferencia de , cada uno puede tener valores negativos y positivos.
La variable aleatoria depende de dos secuencias: los tiempos de espera y las recompensas. Estas dos secuencias no necesitan ser independientes. En particular, puede ser una función de .
Interpretación
En el contexto de la interpretación anterior de los tiempos de espera como el tiempo entre sucesivos fallos de funcionamiento de una máquina, las "recompensas" (que en este caso resultan ser negativas) pueden verse como los sucesivos costos de reparación incurridos como resultado de los sucesivos mal funcionamiento.
Una analogía alternativa es que tenemos una gallina mágica que pone huevos a intervalos (tiempos de espera) distribuidos como . A veces pone huevos de oro de peso aleatorio, y otras veces pone huevos tóxicos (también de peso aleatorio) que requieren una eliminación responsable (y costosa). Las "recompensas" son las pérdidas / ganancias financieras sucesivas (aleatorias) que resultan de huevos sucesivos ( i = 1, 2, 3, ...) y registra la "recompensa" financiera total en el tiempo t .
Función de renovación
Definimos la función de renovación como el valor esperado del número de saltos observados hasta algún tiempo :
Teorema de renovación elemental
La función de renovación satisface
Prueba
La fuerte ley de los grandes números para los procesos de renovación implica
Para probar el teorema de la renovación elemental, basta con demostrar que es uniformemente integrable.
Para hacer esto, considere algún proceso de renovación truncado donde los tiempos de espera se definen por dónde está un punto tal que existe para todos los procesos de renovación no deterministas. Este nuevo proceso de renovación es un límite superior y sus renovaciones solo pueden ocurrir en la celosía . Además, el número de renovaciones en cada momento es geométrico con el parámetro . Entonces tenemos
Teorema de renovación elemental para procesos de recompensa de renovación
Definimos la función de recompensa :
La función de recompensa satisface
Ecuación de renovación
La función de renovación satisface
donde es la función de distribución acumulativa de y es la función de densidad de probabilidad correspondiente.
Prueba [2]
Podemos iterar la expectativa sobre el primer tiempo de espera:
A partir de la definición del proceso de renovación, tenemos
Entonces
según sea necesario.
Teorema de renovación clave
Sea X un proceso de renovación con función de renovación y medio de interrrenovación . Sea una función que satisfaga:
g es monótono y no aumenta
El teorema de la renovación de claves establece que, como : [3]
Teorema de renovación
Considerando para cualquier da como un caso especial el teorema de renovación: [4]
como
El resultado puede demostrarse mediante ecuaciones integrales o mediante un argumento de acoplamiento . [5] Aunque es un caso especial del teorema de renovación de claves, puede usarse para deducir el teorema completo, considerando funciones escalonadas y luego aumentando las secuencias de funciones escalonadas. [3]
Propiedades asintóticas
Los procesos de renovación y los procesos de renovación-recompensa tienen propiedades análogas a la ley fuerte de los grandes números , que puede derivarse del mismo teorema. Si es un proceso de renovación y es un proceso de renovación-recompensa, entonces:
[6]
casi seguro.
Prueba
Considere primero . Por definición tenemos:
para todos y asi
para todo t ≥ 0.
Ahora que tenemos:
como casi seguramente (con una probabilidad de 1). Por eso:
casi con seguridad (usando la ley fuerte de los grandes números); similar:
casi seguro.
Por lo tanto (ya que está intercalado entre los dos términos)
casi seguro. [3]
Luego considere . Tenemos
casi seguro (usando el primer resultado y usando la ley de los grandes números en ).
Los procesos de renovación tienen además una propiedad análoga al teorema del límite central : [6]
Paradoja de la inspección
El intervalo de renovación determinado por el punto aleatorio t (mostrado en rojo) es estocásticamente mayor que el primer intervalo de renovación.
Una característica curiosa de los procesos de renovación es que si esperamos un tiempo predeterminado t y luego observamos qué tan grande es el intervalo de renovación que contiene t , deberíamos esperar que sea típicamente mayor que un intervalo de renovación de tamaño promedio.
Matemáticamente, la paradoja de la inspección establece: para cualquier t> 0, el intervalo de renovación que contiene t es estocásticamente mayor que el primer intervalo de renovación. Es decir, para todo x > 0 y para todo t > 0:
donde F S es la función de distribución acumulativa de los tiempos de retención del IID S i .
La resolución de la paradoja es que nuestra distribución muestreada en el momento t está sesgada por el tamaño, en el sentido de que la probabilidad de que se elija un intervalo es proporcional a su tamaño. Sin embargo, un intervalo de renovación de tamaño medio no está sesgado por el tamaño.
Prueba
Observe que el último tiempo de salto antes de t es ; y que el intervalo de renovación que contiene t es . Luego
ya que ambos y son mayores o iguales que para todos los valores de s .
Superposición
A menos que el proceso de renovación sea un proceso de Poisson, la superposición (suma) de dos procesos de renovación independientes no es un proceso de renovación. [7] Sin embargo, estos procesos pueden describirse dentro de una clase más amplia de procesos denominados procesos de renovación de Markov . [8] Sin embargo, la función de distribución acumulativa del primer tiempo entre eventos en el proceso de superposición viene dada por [9]
donde R k ( t ) y α k > 0 son la CDF de los tiempos entre eventos y la tasa de llegada del proceso k . [10]
Aplicación de ejemplo
Eric, el empresario, tiene n máquinas, cada una de las cuales tiene una vida útil distribuida uniformemente entre cero y dos años. Eric puede dejar que cada máquina funcione hasta que falle con un costo de reemplazo de 2600 €; alternativamente, puede sustituir una máquina en cualquier momento mientras aún esté en funcionamiento por un coste de 200 €.
¿Cuál es su política de reemplazo óptima?
Solución
La vida útil de las n máquinas se puede modelar como n procesos de renovación-recompensa simultáneos independientes, por lo que es suficiente considerar el caso n = 1 . Denote este proceso por . Las vidas sucesivas S de las máquinas de reemplazo son independientes y están distribuidas de manera idéntica, por lo que la política óptima es la misma para todas las máquinas de reemplazo en el proceso.
Si Eric decide al comienzo de la vida útil de una máquina reemplazarla en el tiempo 0 < t <2 pero la máquina falla antes de ese momento, entonces la vida útil S de la máquina se distribuye uniformemente en [0, t ] y, por lo tanto, tiene una expectativa de 0.5 t . Entonces, la vida útil total esperada de la máquina es:
y el costo W esperado por máquina es:
Entonces, según la fuerte ley de los grandes números, su costo promedio a largo plazo por unidad de tiempo es:
luego diferenciando con respecto a t :
esto implica que los puntos de inflexión satisfacen:
y por lo tanto
Tomamos la única solución t en [0, 2]: t = 2/3. De hecho, esto es un mínimo (y no un máximo) ya que el costo por unidad de tiempo tiende a infinito cuando t tiende a cero, lo que significa que el costo disminuye a medida que t aumenta, hasta el punto 2/3 donde comienza a aumentar.
Ver también
Teorema de Campbell (probabilidad)
Proceso de Poisson compuesto
Proceso de Markov en tiempo continuo
Lema del pequeño
Teorema de Palm-Khintchine
Proceso de Poisson
Teoría de las colas
Tiempo residual
Teoría de la ruina
Proceso Semi-Markov
Este artículo incluye una lista de referencias generales , pero permanece en gran parte sin verificar porque carece de suficientes citas en línea correspondientes . Ayude a mejorar este artículo introduciendo citas más precisas. ( Julio de 2010 ) ( Obtenga información sobre cómo y cuándo eliminar este mensaje de plantilla )
Notas
^ Grimmett y Stirzaker (1992) , p. 393.
^ Grimmett y Stirzaker (1992) , p. 390.
↑ a b c Grimmett y Stirzaker (1992) , p. 395.
^ Feller (1971) , p. 347–351.
^ Grimmett y Stirzaker (1992) , p. 394–5.
↑ a b Grimmett y Stirzaker (1992) , p. 394.
^ Grimmett y Stirzaker (1992) , p. 405.
^ Çinlar, Erhan (1969). "Teoría de la renovación de Markov". Avances en probabilidad aplicada . Fideicomiso de probabilidad aplicada. 1 (2): 123–187. doi : 10.2307 / 1426216 . JSTOR 1426216 .
^ Lawrence, AJ (1973). "Dependencia de intervalos entre eventos en procesos de superposición". Revista de la Royal Statistical Society. Serie B (Metodológica) . 35 (2): 306–315. doi : 10.1111 / j.2517-6161.1973.tb00960.x . JSTOR 2984914 . fórmula 4.1
^ Choungmo Fofack, Nicaise; Naín, Philippe; Neglia, Giovanni; Towsley, Don . "Análisis de redes de caché basadas en TTL" . Actas de la 6ª Conferencia Internacional sobre Metodologías y Herramientas de Evaluación del Desempeño . Consultado el 15 de noviembre de 2012 .
Referencias
Cox, David (1970). Teoría de la renovación . Londres: Methuen & Co. p. 142. ISBN 0-412-20570-X.
Doob, JL (1948). "Teoría de la renovación desde el punto de vista de la teoría de la probabilidad" (PDF) . Transacciones de la American Mathematical Society . 63 (3): 422–438. doi : 10.2307 / 1990567 . JSTOR 1990567 .
Feller, William (1971). Introducción a la teoría de la probabilidad y sus aplicaciones . 2 (segunda ed.). Wiley.
Grimmett, GR ; Stirzaker, DR (1992). Probabilidad y procesos aleatorios (segunda ed.). Prensa de la Universidad de Oxford. ISBN 0198572220.
Smith, Walter L. (1958). "Teoría de la renovación y sus ramificaciones". Revista de la Sociedad Real de Estadística, Serie B . 20 (2): 243-302. JSTOR 2983891 .
Wanli Wang, Johannes HP Schulz, Weihua Deng y Eli Barkai (2018). "Teoría de la renovación con tiempos de estancia distribuidos de cola gruesa: típico versus raro". Phys. Rev. E . 98 (4): 042139. arXiv : 1809.05856 . Código Bibliográfico : 2018PhRvE..98d2139W . doi : 10.1103 / PhysRevE.98.042139 .
vtmiProcesos estocásticos
Tiempo discreto
Proceso de Bernoulli
Proceso de ramificación
Proceso de restaurante chino
Proceso de Galton-Watson
Variables aleatorias independientes e idénticamente distribuidas
Cadena de Markov
Proceso de Moran
Caminata aleatoria
Bucle borrado
Evitarse a sí mismo
Tendencioso
Entropía máxima
Tiempo continuo
Proceso aditivo
Proceso de Bessel
Proceso de nacimiento-muerte
puro nacimiento
movimiento browniano
Puente
Excursión
Fraccionario
Geométrico
Meandro
Proceso de Cauchy
Proceso de contacto
Caminata aleatoria en tiempo continuo
Proceso de Cox
Proceso de difusión
Proceso empírico
Proceso de Feller
Proceso Fleming-Viot
Proceso gamma
Proceso geométrico
Proceso de Hawkes
Proceso de caza
Sistemas de partículas interactuantes
Itô difusión
Itô proceso
Difusión de salto
Proceso de salto
Proceso Lévy
Hora local
Proceso aditivo de Markov
Proceso de McKean-Vlasov
Proceso de Ornstein-Uhlenbeck
Proceso de Poisson
Compuesto
No homogéneo
Evolución de Schramm-Loewner
Semimartingale
Sigma-martingala
Proceso estable
Superproceso
Proceso de telégrafo
Proceso de varianza gamma
Proceso de salchicha
Salchicha salchicha
Ambos
Proceso de ramificación
Modelo de Galves – Löcherbach
Proceso gaussiano
Modelo de Markov oculto (HMM)
Proceso de Markov
Martingala
Diferencias
Local
Sub-
Súper-
Sistema dinámico aleatorio
Proceso regenerativo
Proceso de renovación
Cadenas estocásticas con memoria de longitud variable
ruido blanco
Campos y otros
Proceso de Dirichlet
Campo aleatorio gaussiano
Medida de Gibbs
Modelo Hopfield
Modelo de ising
Modelo de potts
Red booleana
Campo aleatorio de Markov
Filtración
Proceso Pitman-Yor
Proceso de puntos
Timonel
Poisson
Campo aleatorio
Gráfico aleatorio
Modelos de series de tiempo
Modelo de heterocedasticidad condicional autorregresiva (ARCH)
Modelo de media móvil integrada autorregresiva (ARIMA)
Modelo autorregresivo (AR)
Modelo autorregresivo de media móvil (ARMA)
Modelo de heterocedasticidad condicional autorregresiva generalizada (GARCH)