En la teoría de la probabilidad , la ecuación de Wald , la identidad de Wald [1] o el lema de Wald [2] es una identidad importante que simplifica el cálculo del valor esperado de la suma de un número aleatorio de cantidades aleatorias. En su forma más simple, relaciona la expectativa de una suma de muchas variables aleatorias de media finita, independientes e idénticamente distribuidas al azar con el número esperado de términos en la suma y la expectativa común de las variables aleatorias bajo la condición de que el número de términos en la suma es independiente de los sumandos.
La ecuación lleva el nombre del matemático Abraham Wald . Una identidad para el segundo momento viene dada por la ecuación de Blackwell-Girshick . [3]
Versión básica
Sea ( X n ) n ∈ℕ una secuencia de variables aleatorias de valor real, independientes e idénticamente distribuidas y sea N una variable aleatoria de valor entero no negativo que sea independiente de la secuencia ( X n ) n ∈ℕ . Suponga que N y X n tienen expectativas finitas. Luego
Ejemplo
Tira un dado de seis caras . Tome el número del dado (lo llaman N ) y el rollo ese número de dados de seis caras para obtener los números de X 1 ,. . . , X N , y sume sus valores. Según la ecuación de Wald, el valor resultante en promedio es
Versión general
Sea ( X n ) n ∈ℕ una secuencia infinita de variables aleatorias de valor real y sea N una variable aleatoria de valor entero no negativo.
Asumir que:
- 1 . ( X n ) n ∈ℕ son todas variables aleatorias integrables (de media finita),
- 2 . E [ X n 1 { N ≥ n } ] = E [ X n ] P ( N ≥ n ) para cada número natural n , y
- 3 . la serie infinita satisface
Entonces las sumas aleatorias
son integrables y
Si, además,
- 4 . ( X n ) n ∈ℕ todos tienen la misma expectativa, y
- 5 . N tiene una expectativa finita,
luego
Observación: Por lo general, el nombre de la ecuación de Wald se refiere a esta última igualdad.
Discusión de supuestos
Claramente, el supuesto ( 1 ) es necesario para formular el supuesto ( 2 ) y la ecuación de Wald. El supuesto ( 2 ) controla la cantidad de dependencia permitida entre la secuencia ( X n ) n ∈ℕ y el número N de términos; vea el contraejemplo a continuación para conocer la necesidad . Tenga en cuenta que el supuesto ( 2 ) se satisface cuando N es un tiempo de parada para la secuencia ( X n ) n ∈ℕ . [ cita requerida ] El supuesto ( 3 ) es de naturaleza más técnica, lo que implica una convergencia absoluta y, por lo tanto, permite el reordenamiento arbitrario de una serie infinita en la prueba.
Si se satisface el supuesto ( 5 ), entonces el supuesto ( 3 ) se puede fortalecer a la condición más simple
- 6 . existe una constante real C tal que E [| X n | 1 { N ≥ n } ] ≤ C P ( N ≥ n ) para todos los números naturales n .
De hecho, usando el supuesto ( 6 ),
y la última serie es igual a la expectativa de N [ Prueba ] , que es finita por el supuesto ( 5 ). Por lo tanto, ( 5 ) y ( 6 ) implican el supuesto ( 3 ).
Suponga además de ( 1 ) y ( 5 ) que
- 7 . N es independiente de la secuencia ( X n ) n ∈ℕ y
- 8 . existe una constante C tal que E [| X n |] ≤ C para todos los números naturales n .
Entonces se satisfacen todos los supuestos ( 1 ), ( 2 ), ( 5 ) y ( 6 ), por lo tanto también ( 3 ). En particular, las condiciones ( 4 ) y ( 8 ) se cumplen si
- 9 . las variables aleatorias ( X n ) n ∈ℕ todas tienen la misma distribución.
Tenga en cuenta que las variables aleatorias de la secuencia ( X n ) n ∈ℕ no necesitan ser independientes.
El punto interesante es admitir cierta dependencia entre el número aleatorio N de términos y la secuencia ( X n ) n ∈ℕ . Una versión estándar es asumir ( 1 ), ( 5 ), ( 8 ) y la existencia de una filtración ( F n ) n ∈ℕ 0 tal que
- 10 . N es un tiempo de parada con respecto a la filtración, y
- 11 . X n y F n –1 son independientes para todo n ∈ ℕ .
Entonces ( 10 ) implica que el evento { N ≥ n } = { N ≤ n - 1} c está en F n –1 , por lo tanto, por ( 11 ) es independiente de X n . Esto implica ( 2 ), y junto con ( 8 ) implica ( 6 ).
Por conveniencia (vea la demostración a continuación usando el teorema de parada opcional) y para especificar la relación de la secuencia ( X n ) n ∈ℕ y la filtración ( F n ) n ∈ℕ 0 , a menudo se impone la siguiente suposición adicional:
- 12 . la secuencia ( X n ) n ∈ℕ está adaptada a la filtración ( F n ) n ∈ℕ , lo que significa que X n es F n -medible para cada n ∈ ℕ .
Tenga en cuenta que ( 11 ) y ( 12 ) juntos implican que las variables aleatorias ( X n ) n ∈ℕ son independientes.
Solicitud
Una aplicación es en ciencia actuarial cuando se considera que el monto total de la reclamación sigue un proceso de Poisson compuesto.
dentro de un cierto período de tiempo, digamos un año, que surge de un número aleatorio N de reclamaciones de seguros individuales, cuyos tamaños se describen mediante las variables aleatorias ( X n ) n ∈ℕ . Bajo los supuestos anteriores, la ecuación de Wald se puede usar para calcular el monto total de reclamación esperado cuando se dispone de información sobre el número promedio de reclamaciones por año y el tamaño medio de reclamaciones. Bajo supuestos más fuertes y con más información acerca de las distribuciones subyacentes, la recursión de Panjer se puede utilizar para calcular la distribución de S N .
Ejemplos de
Ejemplo con términos dependientes
Sea N una variable aleatoria integrable de valor ℕ 0 , que es independiente de la variable aleatoria de valor real integrable Z con E [ Z ] = 0 . Defina X n = (–1) n Z para todo n ∈ ℕ . Luego, los supuestos ( 1 ), ( 5 ), ( 7 ) y ( 8 ) con C : = E [| Z |] se satisfacen, por lo tanto también ( 2 ) y ( 6 ), y se aplica la ecuación de Wald. Si la distribución de Z no es simétrica, entonces ( 9 ) no se cumple. Tenga en cuenta que, cuando Z no es casi con seguridad igual a la variable aleatoria cero, entonces ( 11 ) y ( 12 ) no se pueden mantener simultáneamente para ninguna filtración ( F n ) n ∈ℕ , porque Z no puede ser independiente de sí mismo como E [ Z 2 ] = (E [ Z ]) 2 = 0 es imposible.
Ejemplo donde el número de términos depende de la secuencia
Sea ( X n ) n ∈ℕ una secuencia de variables aleatorias independientes, simétricas y con valor {–1, +1 }. Para cada n ∈ ℕ dejó F n sea el σ-álgebra generada por X 1 ,. . . , X n y defina N = n cuando X n es la primera variable aleatoria que toma el valor +1 . Tenga en cuenta que P ( N = n ) = 1/2 n , por lo tanto, E [ N ] <∞ según la prueba de razón . Los supuestos ( 1 ), ( 5 ) y ( 9 ), por lo tanto ( 4 ) y ( 8 ) con C = 1 , ( 10 ), ( 11 ) y ( 12 ) son válidos, por lo tanto también ( 2 ) y ( 6) ) y se aplica la ecuación de Wald. Sin embargo, ( 7 ) no se cumple, porque N se define en términos de la secuencia ( X n ) n ∈ℕ . Intuitivamente, uno podría esperar tener E [ S N ]> 0 en este ejemplo, porque la suma se detiene justo después de uno, lo que aparentemente crea un sesgo positivo. Sin embargo, la ecuación de Wald muestra que esta intuición es engañosa.
Contraejemplos
Un contraejemplo que ilustra la necesidad del supuesto ( 2 )
Considere una secuencia ( X n ) n ∈ℕ de iid variables aleatorias, tomando cada uno de los dos valores 0 y 1 con probabilidad ½ (en realidad, solo se necesita X 1 en lo siguiente). Defina N = 1 - X 1 . Entonces S N es idénticamente igual a cero, por lo tanto E [ S N ] = 0 , pero E [ X 1 ] = ½ y E [ N ] = ½ y, por lo tanto, la ecuación de Wald no se cumple. De hecho, los supuestos ( 1 ), ( 3 ), ( 4 ) y ( 5 ) se satisfacen, sin embargo, la ecuación del supuesto ( 2 ) es válida para todos los n ∈ ℕ excepto para n = 1 .
Un contraejemplo que ilustra la necesidad del supuesto ( 3 )
Muy similar al segundo ejemplo anterior, sea ( X n ) n ∈ℕ una secuencia de variables aleatorias simétricas e independientes, donde X n toma cada uno de los valores 2 n y –2 n con probabilidad ½. Sea N el primer n ∈ ℕ tal que X n = 2 n . Entonces, como antes, N tiene una expectativa finita, por lo que se cumple el supuesto ( 5 ). Dado que E [ X n ] = 0 para todo n ∈ ℕ , los supuestos ( 1 ) y ( 4 ) son válidos. Sin embargo, dado que S N = 1 es casi seguro que la ecuación de Wald no se mantenga.
Dado que N es un tiempo de parada con respecto a la filtración generada por ( X n ) n ∈ℕ , se cumple el supuesto ( 2 ), véase más arriba. Por lo tanto, solo el supuesto ( 3 ) puede fallar, y de hecho, dado que
y por lo tanto P ( N ≥ n ) = 1/2 n –1 para cada n ∈ ℕ , se sigue que
Una demostración usando el teorema de parada opcional
Suponga ( 1 ), ( 5 ), ( 8 ), ( 10 ), ( 11 ) y ( 12 ). Usando el supuesto ( 1 ), defina la secuencia de variables aleatorias
El supuesto ( 11 ) implica que la expectativa condicional de X n dado F n –1 es igual a E [ X n ] casi con seguridad para cada n ∈ ℕ , por lo tanto ( M n ) n ∈ℕ 0 es una martingala con respecto a la filtración ( F n ) n ∈ℕ 0 según el supuesto ( 12 ). Los supuestos ( 5 ), ( 8 ) y ( 10 ) aseguran que podamos aplicar el teorema de parada opcional , por lo tanto M N = S N - T N es integrable y
( 13 )
Debido al supuesto ( 8 ),
y debido al supuesto ( 5 ), este límite superior es integrable. Por tanto, podemos sumar la expectativa de T N a ambos lados de la ecuación ( 13 ) y obtener por linealidad
Observación: Tenga en cuenta que esta prueba no cubre el ejemplo anterior con términos dependientes .
Prueba general
Esta demostración usa solo los teoremas de convergencia monótonos y dominados de Lebesgue . Demostramos el enunciado dado anteriormente en tres pasos.
Paso 1: Integrabilidad de la suma aleatoria S N
Primero mostramos que la suma aleatoria S N es integrable. Definir las sumas parciales
( 14 )
Como N toma sus valores en ℕ 0 y como S 0 = 0 , se sigue que
El teorema de convergencia monótona de Lebesgue implica que
Por la desigualdad del triángulo,
Usando esta estimación superior y cambiando el orden de la suma (que está permitido porque todos los términos son no negativos), obtenemos
( 15 )
donde la segunda desigualdad sigue usando el teorema de convergencia monótono. Por el supuesto ( 3 ), la secuencia infinita en el lado derecho de ( 15 ) converge, por lo tanto S N es integrable.
Paso 2: Integrabilidad de la suma aleatoria T N
Ahora mostramos que la suma aleatoria T N es integrable. Definir las sumas parciales
( 16 )
de números reales. Como N toma sus valores en ℕ 0 y como T 0 = 0 , se sigue que
Como en el paso 1, el teorema de convergencia monótona de Lebesgue implica que
Por la desigualdad del triángulo,
Usando esta estimación superior y cambiando el orden de la suma (que está permitido porque todos los términos son no negativos), obtenemos
( 17 )
Por supuesto ( 2 ),
Sustituyendo esto en ( 17 ) se obtiene
que es finito por el supuesto ( 3 ), por lo tanto, T N es integrable.
Paso 3: prueba de identidad
Para probar la ecuación de Wald, esencialmente pasamos por los mismos pasos nuevamente sin el valor absoluto, haciendo uso de la integrabilidad de las sumas aleatorias S N y T N para mostrar que tienen la misma expectativa.
Uso del teorema de convergencia dominada con variable aleatoria dominante | S N | y la definición de la suma parcial S i dada en ( 14 ), se sigue que
Debido a la convergencia absoluta demostrada en ( 15 ) usando el supuesto ( 3 ), podemos reordenar la suma y obtener que
donde usamos el supuesto ( 1 ) y el teorema de convergencia dominada con variable aleatoria dominante | X n | por la segunda igualdad. Debido al supuesto ( 2 ) y la σ-aditividad de la medida de probabilidad,
Sustituyendo este resultado en la ecuación anterior, reordenando la suma (que se permite debido a la convergencia absoluta, ver ( 15 ) arriba), usando la linealidad de la expectativa y la definición de la suma parcial T i de las expectativas dada en ( 16 ),
Utilizando de nuevo la convergencia dominada con la variable aleatoria dominante | T N | ,
Si se satisfacen los supuestos ( 4 ) y ( 5 ), entonces por linealidad de la expectativa,
Esto completa la prueba.
Más generalizaciones
- La ecuación de Wald se puede transferir a variables aleatorias con valor R d ( X n ) n ∈ℕ aplicando la versión unidimensional a cada componente.
- Si ( X n ) n ∈ℕ son variables aleatorias integrables de Bochner que toman valores en un espacio de Banach , entonces la demostración general anterior se puede ajustar en consecuencia.
Ver también
- La desigualdad de Lorden
- Martingala de wald
- Fórmula de Spitzer
Notas
- ^ Janssen, Jacques; Manca, Raimondo (2006). "Teoría de la Renovación". Procesos aplicados de Semi-Markov . Saltador. págs. 45 –104. doi : 10.1007 / 0-387-29548-8_2 . ISBN 0-387-29547-X.
- ^ Thomas Bruss, F .; Robertson, JB (1991). " ' Lema de Wald' para sumas de estadísticas de orden de variables aleatorias iid". Avances en probabilidad aplicada . 23 (3): 612–623. doi : 10.2307 / 1427625 . JSTOR 1427625 .
- ^ Blackwell, D .; Girshick, MA (1946). "Sobre funciones de secuencias de vectores de azar independientes con aplicaciones al problema del 'paseo aleatorio' en k dimensiones" . Ana. Matemáticas. Estadista . 17 : 310–317. doi : 10.1214 / aoms / 1177730943 .
Referencias
- Wald, Abraham (septiembre de 1944). "Sobre sumas acumuladas de variables aleatorias" . Los Anales de Estadística Matemática . 15 (3): 283-296. doi : 10.1214 / aoms / 1177731235 . JSTOR 2236250 . Señor 0010927 . Zbl 0063.08122 .
- Wald, Abraham (1945). "Algunas generalizaciones de la teoría de sumas acumulativas de variables aleatorias" . Los Anales de Estadística Matemática . 16 (3): 287-293. doi : 10.1214 / aoms / 1177731092 . JSTOR 2235707 . Señor 0013852 . Zbl 0063.08129 .
- Blackwell, D .; Girshick, MA (1946). "Sobre funciones de secuencias de vectores de azar independientes con aplicaciones al problema del 'paseo aleatorio' en k dimensiones" . Ana. Matemáticas. Estadista . 17 : 310–317. doi : 10.1214 / aoms / 1177730943 .
- Chan, Hock Peng; Fuh, Cheng-Der; Hu, Inchi (2006). "Problema de bandidos armados múltiples con relaciones de precedencia". Series temporales y temas relacionados . Notas de conferencias del Instituto de Estadística Matemática - Serie de monografías. 52 . págs. 223-235. arXiv : matemáticas / 0702819 . doi : 10.1214 / 074921706000001067 . ISBN 978-0-940600-68-3.
enlaces externos
- "Identidad de Wald" , Enciclopedia de Matemáticas , EMS Press , 2001 [1994]