Big O en notación de probabilidad


El orden en notación de probabilidad se usa en teoría de probabilidad y teoría estadística en paralelo directo a la notación de O grande que es estándar en matemáticas . Donde la notación O grande se ocupa de la convergencia de secuencias o conjuntos de números ordinarios, la notación de orden en probabilidad se ocupa de la convergencia de conjuntos de variables aleatorias , donde la convergencia es en el sentido de convergencia en probabilidad . [1]

Para un conjunto de variables aleatorias X n y un conjunto correspondiente de constantes a n (ambas indexadas por n , que no necesitan ser discretas), la notación

significa que el conjunto de valores X n / a n converge a cero en probabilidad cuando n se acerca a un límite apropiado. De manera equivalente, X n = o p ( a n ) se puede escribir como X n / a n  = o p (1), donde X n = o p (1) se define como,

significa que el conjunto de valores X n / a n está acotado estocásticamente. Es decir, para cualquier ε > 0, existe un finito M > 0 y un finito N > 0 tal que

La diferencia radica en el δ: para la acotación estocástica, basta con que exista un δ (grande arbitrario) para satisfacer la desigualdad, y se permite que δ dependa de ε (de ahí el δ ε ). Por otro lado, para la convergencia, el enunciado tiene que ser válido no solo para uno, sino para cualquier (pequeño arbitrario) δ. En cierto sentido, esto significa que la secuencia debe estar acotada, con un límite que se vuelve más pequeño a medida que aumenta el tamaño de la muestra.

Esto sugiere que si una sucesión es o p (1), entonces es O p (1), es decir, la convergencia en probabilidad implica acotación estocástica. Pero lo contrario no se sostiene.