En teoría de probabilidad y estadística , un momento central es un momento de una distribución de probabilidad de una variable aleatoria alrededor de la media de la variable aleatoria ; es decir, es el valor esperadode una potencia entera especificada de la desviación de la variable aleatoria de la media. Los diversos momentos forman un conjunto de valores mediante los cuales las propiedades de una distribución de probabilidad pueden caracterizarse de manera útil. Los momentos centrales se utilizan con preferencia a los momentos ordinarios, calculados en términos de desviaciones de la media en lugar de cero, porque los momentos centrales de orden superior se relacionan solo con la extensión y la forma de la distribución, y no también con su ubicación .
Se pueden definir conjuntos de momentos centrales para distribuciones univariadas y multivariadas.
Momentos univariados
El n- ésimo momento alrededor de la media (o n- ésimo momento central ) de una variable aleatoria de valor real X es la cantidad μ n : = E [( X - E [ X ]) n ], donde E es el operador de expectativa . Para una distribución de probabilidad univariante continua con función de densidad de probabilidad f ( x ), el momento n respecto a la media μ es
Para las variables aleatorias que no tienen media, como la distribución de Cauchy , los momentos centrales no están definidos.
Los primeros momentos centrales tienen interpretaciones intuitivas:
- El momento central "cero" μ 0 es 1.
- El primer momento central μ 1 es 0 (no debe confundirse con el primer momento bruto o el valor esperado μ ).
- El segundo momento central μ 2 se llama varianza y generalmente se denota σ 2 , donde σ representa la desviación estándar .
- Los momentos centrales tercero y cuarto se utilizan para definir los momentos estandarizados que se utilizan para definir la asimetría y la curtosis , respectivamente.
Propiedades
El n- ésimo momento central es invariante en traslación, es decir, para cualquier variable aleatoria X y cualquier constante c , tenemos
Para todo n , el n- ésimo momento central es homogéneo de grado n :
Solo para n tal que n sea igual a 1, 2 o 3, tenemos una propiedad de aditividad para las variables aleatorias X e Y que son independientes :
- siempre que n ∈ {1, 2, 3 }.
Un funcional relacionado que comparte las propiedades de traslación-invariancia y homogeneidad con el n- ésimo momento central, pero continúa teniendo esta propiedad de aditividad incluso cuando n ≥ 4 es el n- ésimo acumulativo κ n ( X ). Para n = 1, el n- ésimo acumulado es solo el valor esperado ; para n = 2 o 3, el n- ésimo acumulado es sólo el n- ésimo momento central; para n ≥ 4, el n- ésimo acumulante es un polinomio mónico de n -ésimo grado en los primeros n momentos (aproximadamente cero), y también es un polinomio (más simple) de n -ésimo grado en los primeros n momentos centrales.
Relación con momentos sobre el origen
A veces es conveniente convertir momentos sobre el origen en momentos sobre la media. La ecuación general para convertir el momento de n -ésimo orden con respecto al origen en el momento con respecto a la media es
donde μ es la media de la distribución, y el momento con respecto al origen viene dado por
Para los casos n = 2, 3, 4, que son de mayor interés debido a las relaciones con la varianza , la asimetría y la curtosis , respectivamente, esta fórmula se convierte en (observando que y ):
- que se conoce comúnmente como
... y así sucesivamente, [2] siguiendo el triángulo de Pascal , es decir
porque
La siguiente suma es una variable estocástica que tiene una distribución compuesta
donde el son variables aleatorias mutuamente independientes que comparten la misma distribución común y una variable entera aleatoria independiente de la con su propia distribución. Los momentos dese obtienen como [3]
dónde se define como cero para .
Distribuciones simétricas
En una distribución simétrica (una que no se ve afectada por reflejarse sobre su media), todos los momentos centrales impares son iguales a cero, porque en la fórmula para el n- ésimo momento, cada término implica un valor de X menor que la media en una cierta cantidad exactamente anula el término que involucra un valor de X mayor que la media por la misma cantidad.
Momentos multivariados
Para una distribución de probabilidad bivariada continua con función de densidad de probabilidad f ( x , y ) el momento ( j , k ) alrededor de la media μ = ( μ X , μ Y ) es
Momento central de variables aleatorias complejas
El n- ésimo momento central para una variable aleatoria compleja X se define como [4]
El n- ésimo momento central absoluto de X se define como
El momento central segundo orden β 2 se llama la varianza de X , mientras que el momento central segundo orden α 2 es el pseudo-varianza de X .
Ver también
- Momento estandarizado
- Momento de la imagen
- Distribución normal § Momentos
- Variable aleatoria compleja
Referencias
- ^ Grimmett, Geoffrey; Stirzaker, David (2009). Probabilidad y procesos aleatorios . Oxford, Inglaterra: Oxford University Press. ISBN 978 0 19 857222 0.
- ^ http://mathworld.wolfram.com/CentralMoment.html
- ^ Grubbström, Robert W .; Tang, Ou (2006). "Los momentos y momentos centrales de una distribución compuesta". Revista europea de investigación operativa . 170 : 106-119. doi : 10.1016 / j.ejor.2004.06.012 .
- ^ Eriksson, Jan; Ollila, Esa; Koivunen, Visa (2009). "ESTADÍSTICAS PARA VARIABLES ALEATORIAS COMPLEJAS REVISADAS". Conferencia internacional IEEE sobre acústica, habla y procesamiento de señales : 3565--3568. doi : 10.1109 / ICASSP.2009.4960396 .