Método de momentos (teoría de la probabilidad)


De Wikipedia, la enciclopedia libre
Saltar a navegación Saltar a búsqueda

En la teoría de la probabilidad , el método de los momentos es una forma de demostrar la convergencia en la distribución al demostrar la convergencia de una secuencia de secuencias de momentos . [1] Suponga que X es una variable aleatoria y que todos los momentos

existe. Suponga además que la distribución de probabilidad de X está completamente determinada por sus momentos, es decir, no hay otra distribución de probabilidad con la misma secuencia de momentos (cf. el problema de los momentos ). Si

para todos los valores de k , entonces la secuencia { X n } converge a X en la distribución.

El método de los momentos fue introducido por Pafnuty Chebyshev para demostrar el teorema del límite central ; Chebyshev citó contribuciones anteriores de Irénée-Jules Bienaymé . [2] Más recientemente, ha sido aplicado por Eugene Wigner para probar la ley del semicírculo de Wigner , y desde entonces ha encontrado numerosas aplicaciones en la teoría de matrices aleatorias . [3]

Notas

  1. ^ Prokhorov, AV "Momentos, método de (en teoría de la probabilidad)". En M. Hazewinkel (ed.). Encyclopaedia of Mathematics (en línea) . ISBN 1-4020-0609-8. Señor  1375697 .
  2. ^ Fischer, H. (2011). "4. Contribuciones de Chebyshev y Markov". Historia del teorema del límite central. De la teoría de la probabilidad clásica a la moderna . Fuentes y estudios en Historia de las Matemáticas y Ciencias Físicas. Nueva York: Springer. ISBN 978-0-387-87856-0. Señor  2743162 .
  3. ^ Anderson, GW; Guionnet, A .; Zeitouni, O. (2010). "2,1". Introducción a las matrices aleatorias . Cambridge: Cambridge University Press. ISBN 978-0-521-19452-5.