En teoría de probabilidad y estadística , la varianza es la expectativa de la desviación al cuadrado de una variable aleatoria de su media . En otras palabras, mide qué tan lejos se separa un conjunto de números de su valor promedio. La varianza tiene un papel central en la estadística, donde algunas ideas que la usan incluyen estadística descriptiva , inferencia estadística , prueba de hipótesis , bondad de ajuste y muestreo de Monte Carlo.. La varianza es una herramienta importante en las ciencias, donde el análisis estadístico de datos es común. La varianza es el cuadrado de la desviación estándar , el segundo momento central de una distribución y la covarianza de la variable aleatoria consigo misma, y a menudo se representa por, , o .
Definición
La varianza de una variable aleatoria es el valor esperado de la desviación al cuadrado de la media de, :
Esta definición abarca variables aleatorias que son generadas por procesos que son discretos , continuos , ninguno o mixtos. La varianza también se puede considerar como la covarianza de una variable aleatoria consigo misma:
La varianza también es equivalente al segundo acumulativo de una distribución de probabilidad que genera. La varianza se designa típicamente como, , o simplemente (pronunciado " sigma al cuadrado"). La expresión de la varianza se puede expandir de la siguiente manera:
En otras palabras, la varianza de X es igual a la media de los cuadrados de X menos el cuadrado de la media de X . Esta ecuación no debe usarse para cálculos usando aritmética de punto flotante , porque sufre una cancelación catastrófica si los dos componentes de la ecuación son similares en magnitud. Para conocer otras alternativas numéricamente estables, consulte Algoritmos para calcular la varianza .
Variable aleatoria discreta
Si el generador de variable aleatoria es discreta con función de masa de probabilidad , luego
dónde es el valor esperado. Es decir,
(Cuando dicha varianza ponderada discreta se especifica mediante ponderaciones cuya suma no es 1, se divide por la suma de las ponderaciones).
La varianza de una colección de los valores igualmente probables se pueden escribir como
dónde es el valor medio. Es decir,
La varianza de un conjunto de los valores igualmente probables se pueden expresar de forma equivalente, sin hacer referencia directa a la media, en términos de desviaciones cuadradas de todos los puntos entre sí: [1]
Variable aleatoria absolutamente continua
Si la variable aleatoria tiene una función de densidad de probabilidad , y es la función de distribución acumulativa correspondiente , entonces
o equivalente,
dónde es el valor esperado de dada por
En estas fórmulas, las integrales con respecto a y son integrales de Lebesgue y Lebesgue-Stieltjes , respectivamente.
Si la función es Riemann-integrable en cada intervalo finito luego
donde la integral es una integral de Riemann impropia .
Ejemplos de
Distribución exponencial
La distribución exponencial con parámetro λ es una distribución continua cuya función de densidad de probabilidad viene dada por
en el intervalo [0, ∞) . Se puede demostrar que su media es
Utilizando la integración por partes y haciendo uso del valor esperado ya calculado, tenemos:
Por tanto, la varianza de X viene dada por
Dados justos
Un dado de seis caras se puede modelar como una variable aleatoria discreta, X , con resultados del 1 al 6, cada uno con la misma probabilidad de 1/6. El valor esperado de X esPor lo tanto, la varianza de X es
La fórmula general para la varianza del resultado, X , de un dado de n caras es
Distribuciones de probabilidad de uso común
La siguiente tabla enumera la varianza de algunas distribuciones de probabilidad de uso común.
Nombre de la distribución de probabilidad | Función de distribución de probabilidad | Significar | Diferencia |
---|---|---|---|
Distribución binomial | |||
Distribución geométrica | |||
Distribución normal | |||
Distribución uniforme (continua) | |||
Distribución exponencial | |||
distribución de veneno |
Propiedades
Propiedades básicas
La varianza no es negativa porque los cuadrados son positivos o cero:
La varianza de una constante es cero.
Por el contrario, si la varianza de una variable aleatoria es 0, es casi seguro que sea una constante. Es decir, siempre tiene el mismo valor:
La varianza es invariante con respecto a los cambios en un parámetro de ubicación . Es decir, si se suma una constante a todos los valores de la variable, la varianza no cambia:
Si todos los valores se escalan mediante una constante, la varianza se escala con el cuadrado de esa constante:
La varianza de una suma de dos variables aleatorias está dada por
dónde es la covarianza .
En general, por la suma de variables aleatorias , la varianza se convierte en:
Estos resultados conducen a la varianza de una combinación lineal como:
Si las variables aleatorias son tales que
entonces se dice que no están correlacionados . Se deduce inmediatamente de la expresión dada anteriormente que si las variables aleatorias no están correlacionados, entonces la varianza de su suma es igual a la suma de sus varianzas, o, expresada simbólicamente:
Dado que las variables aleatorias independientes siempre no están correlacionadas (consulte Covarianza § Falta de correlación e independencia ), la ecuación anterior se cumple en particular cuando las variables aleatoriasson independientes. Por tanto, la independencia es suficiente pero no necesaria para que la varianza de la suma sea igual a la suma de las varianzas.
Problemas de finitud
Si una distribución no tiene un valor esperado finito, como es el caso de la distribución de Cauchy , entonces la varianza tampoco puede ser finita. Sin embargo, es posible que algunas distribuciones no tengan una varianza finita, a pesar de que su valor esperado sea finito. Un ejemplo es una distribución de Pareto cuyo índice satisface
Una razón para el uso de la varianza con preferencia a otras medidas de dispersión es que la varianza de la suma (o la diferencia) de las variables aleatorias no correlacionadas es la suma de sus varianzas:
Esta declaración se llama la fórmula de Bienaymé [2] y fue descubierta en 1853. [3] [4] A menudo se hace con la condición más fuerte de que las variables son independientes , pero que no estén correlacionadas es suficiente. Entonces, si todas las variables tienen la misma varianza σ 2 , entonces, dado que la división por n es una transformación lineal, esta fórmula implica inmediatamente que la varianza de su media es
Es decir, la varianza de la media disminuye cuando n aumenta. Esta fórmula para la varianza de la media se utiliza en la definición del error estándar de la media muestral, que se utiliza en el teorema del límite central .
Para probar el enunciado inicial, basta con mostrar que
El resultado general sigue entonces por inducción. Comenzando con la definición,
Usando la linealidad del operador de expectativa y el supuesto de independencia (o falta de correlación) de X e Y , esto se simplifica aún más de la siguiente manera:
Con correlación y tamaño de muestra fijo
En general, la varianza de la suma de n variables es la suma de sus covarianzas :
(Nota: La segunda igualdad proviene del hecho de que Cov ( X i , X i ) = Var ( X i ) .)
Aquí, es la covarianza , que es cero para variables aleatorias independientes (si existe). La fórmula establece que la varianza de una suma es igual a la suma de todos los elementos en la matriz de covarianza de los componentes. La siguiente expresión establece de manera equivalente que la varianza de la suma es la suma de la diagonal de la matriz de covarianza más dos veces la suma de sus elementos triangulares superiores (o sus elementos triangulares inferiores); esto enfatiza que la matriz de covarianza es simétrica. Esta fórmula se utiliza en la teoría del alfa de Cronbach en la teoría de pruebas clásica .
Entonces, si las variables tienen la misma varianza σ 2 y la correlación promedio de distintas variables es ρ , entonces la varianza de su media es
Esto implica que la varianza de la media aumenta con la media de las correlaciones. En otras palabras, las observaciones correlacionadas adicionales no son tan efectivas como las observaciones independientes adicionales para reducir la incertidumbre de la media . Además, si las variables tienen varianza unitaria, por ejemplo, si están estandarizadas, esto se simplifica a
Esta fórmula se utiliza en la fórmula de predicción de Spearman-Brown de la teoría de pruebas clásica. Esto converge a ρ si n va al infinito, siempre que la correlación promedio permanezca constante o converja también. Entonces, para la varianza de la media de las variables estandarizadas con correlaciones iguales o correlación promedio convergente tenemos
Por tanto, la varianza de la media de un gran número de variables estandarizadas es aproximadamente igual a su correlación media. Esto deja en claro que la media muestral de las variables correlacionadas generalmente no converge con la media poblacional, aunque la ley de los números grandes establece que la media muestral convergerá para las variables independientes.
Iid con tamaño de muestra aleatorio
Hay casos en los que se toma una muestra sin saber de antemano cuántas observaciones serán aceptables según algún criterio. En tales casos, el tamaño de la muestra N es una variable aleatoria cuya variación se suma a la variación de X , de manera que,
- Var (∑ X ) = E ( N ) Var ( X ) + Var ( N ) E 2 ( X ). [5]
Si N tiene una distribución de Poisson , entonces E ( N ) = Var ( N ) con estimador N = n . Entonces, el estimador de Var (∑ X ) se convierte en nS 2 X + n X 2 dando
- error estándar ( X ) = √ [( S 2 X + X 2 ) / n ].
Notación matricial para la varianza de una combinación lineal
Definir como un vector de columna de variables aleatorias , y como un vector de columna de escalares . Por lo tanto,es una combinación lineal de estas variables aleatorias, dondedenota la transposición de. También dejaser la matriz de covarianza de. La varianza deentonces viene dado por: [6]
Esto implica que la varianza de la media se puede escribir como (con un vector de columna de unos)
Suma ponderada de variables
La propiedad de escala y la fórmula de Bienaymé, junto con la propiedad de la covarianza Cov ( aX , bY ) = ab Cov ( X , Y ) implican conjuntamente que
Esto implica que en una suma ponderada de variables, la variable con mayor peso tendrá un peso desproporcionadamente grande en la varianza del total. Por ejemplo, si X y Y no están correlacionados y el peso de X es dos veces el peso de Y , entonces el peso de la varianza de X será de cuatro veces el peso de la varianza de Y .
La expresión anterior se puede extender a una suma ponderada de múltiples variables:
Producto de variables independientes
Si dos variables X e Y son independientes , la varianza de su producto viene dada por [7]
De manera equivalente, usando las propiedades básicas de la expectativa, está dada por
Producto de variables estadísticamente dependientes
En general, si dos variables son estadísticamente dependientes, la varianza de su producto viene dada por:
Descomposición
La fórmula general para la descomposición de la varianza o la ley de la varianza total es: Si y son dos variables aleatorias, y la varianza de existe, entonces
La expectativa condicional de dado y la varianza condicional puede entenderse como sigue. Dado cualquier valor particular y de la variable aleatoria Y , existe una expectativa condicionaldado el evento Y = y . Esta cantidad depende del valor particular y ; es una función. Esa misma función evaluada en la variable aleatoria Y es la expectativa condicional
En particular, si es una variable aleatoria discreta asumiendo valores posibles con probabilidades correspondientes , luego en la fórmula para la varianza total, el primer término en el lado derecho se convierte en
dónde . De manera similar, el segundo término en el lado derecho se convierte en
dónde y . Así, la varianza total está dada por
Se aplica una fórmula similar en el análisis de varianza , donde la fórmula correspondiente es
aquí se refiere a la media de los cuadrados. En el análisis de regresión lineal , la fórmula correspondiente es
Esto también se puede derivar de la aditividad de las varianzas, ya que la puntuación total (observada) es la suma de la puntuación predicha y la puntuación de error, donde los dos últimos no están correlacionados.
Son posibles descomposiciones similares para la suma de las desviaciones al cuadrado (suma de cuadrados, ):
Cálculo del CDF
La varianza de la población para una variable aleatoria no negativa se puede expresar en términos de la función de distribución acumulativa F usando
Esta expresión se puede usar para calcular la varianza en situaciones en las que la CDF, pero no la densidad , se puede expresar convenientemente.
Propiedad característica
El segundo momento de una variable aleatoria alcanza el valor mínimo cuando se toma alrededor del primer momento (es decir, la media) de la variable aleatoria, es decir. Por el contrario, si una función continua satisface para todas las variables aleatorias X , entonces es necesariamente de la forma, donde a > 0 . Esto también es válido en el caso multidimensional. [8]
Unidades de medida
A diferencia de la desviación absoluta esperada, la varianza de una variable tiene unidades que son el cuadrado de las unidades de la propia variable. Por ejemplo, una variable medida en metros tendrá una varianza medida en metros cuadrados. Por esta razón, a menudo se prefiere describir los conjuntos de datos mediante su desviación estándar o la desviación cuadrática media de la raíz sobre el uso de la varianza. En el ejemplo de los dados, la desviación estándar es √ 2.9 ≈ 1.7 , ligeramente mayor que la desviación absoluta esperada de 1.5.
La desviación estándar y la desviación absoluta esperada se pueden utilizar como indicadores del "margen" de una distribución. La desviación estándar es más susceptible de manipulación algebraica que la desviación absoluta esperada y, junto con la varianza y su covarianza de generalización , se utiliza con frecuencia en estadística teórica; sin embargo, la desviación absoluta esperada tiende a ser más robusta, ya que es menos sensible a valores atípicos que surgen de anomalías de medición o una distribución de cola excesivamente pesada .
Aproximación de la varianza de una función
El método delta utiliza expansiones de Taylor de segundo orden para aproximar la varianza de una función de una o más variables aleatorias: consulte las expansiones de Taylor para los momentos de funciones de variables aleatorias . Por ejemplo, la varianza aproximada de una función de una variable viene dada por
siempre que f sea dos veces diferenciable y que la media y la varianza de X sean finitas.
Varianza de la población y varianza de la muestra
Las observaciones del mundo real, como las mediciones de la lluvia de ayer a lo largo del día, normalmente no pueden ser conjuntos completos de todas las posibles observaciones que podrían realizarse. Como tal, la varianza calculada a partir del conjunto finito no coincidirá en general con la varianza que se habría calculado a partir de la población completa de posibles observaciones. Esto significa que se estima la media y la varianza que se habrían calculado a partir de un conjunto omnisciente de observaciones utilizando una ecuación de estimador . El estimador es una función de la muestra de n observaciones extraídas sin sesgo de observación de toda la población de observaciones potenciales. En este ejemplo, esa muestra sería el conjunto de mediciones reales de la lluvia de ayer de los pluviómetros disponibles dentro de la geografía de interés.
Los estimadores más simples para la media poblacional y la varianza poblacional son simplemente la media y la varianza de la muestra, la media muestral y la varianza muestral (no corregida) ; estos son estimadores consistentes (convergen al valor correcto a medida que aumenta el número de muestras), pero pueden Ser mejorado. La estimación de la varianza de la población tomando la varianza de la muestra es casi óptima en general, pero se puede mejorar de dos maneras. De manera más simple, la varianza muestral se calcula como un promedio de desviaciones cuadradas sobre la media (muestral), dividiendo por n. Sin embargo, el uso de valores distintos de n mejora el estimador de varias formas. Cuatro valores comunes para el denominador son n, n - 1, n + 1 y n - 1,5: n es el más simple (varianza de la población de la muestra), n - 1 elimina el sesgo, n + 1 minimiza el error cuadrático medio para la normal distribución, y n - 1.5 elimina principalmente el sesgo en la estimación insesgada de la desviación estándar para la distribución normal.
En primer lugar, si se desconoce la media omnisciente (y se calcula como media muestral), la varianza muestral es un estimador sesgado : subestima la varianza en un factor de ( n - 1) / n ; corregir por este factor (dividir por n - 1 en lugar de n ) se llama corrección de Bessel . El estimador resultante es insesgado y se denomina varianza muestral (corregida) o varianza muestral insesgada . Por ejemplo, cuando n = 1, la varianza de una sola observación sobre la media muestral (en sí misma) es obviamente cero, independientemente de la varianza de la población. Si la media se determina de alguna otra manera que no sea a partir de las mismas muestras utilizadas para estimar la varianza, entonces este sesgo no surge y la varianza puede estimarse con seguridad como la de las muestras sobre la media (conocida independientemente).
En segundo lugar, la varianza de la muestra generalmente no minimiza el error cuadrático medio entre la varianza de la muestra y la varianza de la población. La corrección del sesgo a menudo empeora esto: siempre se puede elegir un factor de escala que funcione mejor que la varianza de la muestra corregida, aunque el factor de escala óptimo depende del exceso de curtosis de la población (ver error cuadrático medio: varianza ) e introduce sesgo. Esto siempre consiste en reducir la escala del estimador insesgado (dividiendo por un número mayor que n - 1), y es un ejemplo simple de un estimador de contracción : uno "reduce" el estimador insesgado hacia cero. Para la distribución normal, dividir por n + 1 (en lugar de n - 1 o n ) minimiza el error cuadrático medio. Sin embargo, el estimador resultante está sesgado y se conoce como variación muestral sesgada .
Varianza de la población
En general, la varianza poblacional de una población finita de tamaño N con valores x i está dada por
donde la media de la población es
La varianza de la población también se puede calcular utilizando
Esto es cierto porque
La varianza de la población coincide con la varianza de la distribución de probabilidad generadora. En este sentido, el concepto de población puede extenderse a variables aleatorias continuas con poblaciones infinitas.
Varianza de la muestra
Varianza muestral sesgada
En muchas situaciones prácticas, la verdadera varianza de una población no se conoce a priori y debe calcularse de alguna manera. Cuando se trata de poblaciones extremadamente grandes, no es posible contar todos los objetos de la población, por lo que el cálculo debe realizarse en una muestra de la población. [9] La varianza de la muestra también se puede aplicar a la estimación de la varianza de una distribución continua de una muestra de esa distribución.
Tomamos una muestra con reemplazo de n valores Y 1 , ..., Y n de la población, donde n < N , y estimamos la varianza sobre la base de esta muestra. [10] Tomando directamente la varianza de los datos de la muestra se obtiene el promedio de las desviaciones cuadradas :
Aquí, denota la media muestral :
Dado que los Y i se seleccionan al azar, ambos y son variables aleatorias. Sus valores esperados pueden evaluarse promediando el conjunto de todas las muestras posibles { Y i } de tamaño n de la población. Para esto da:
Por eso da una estimación de la varianza de la población que está sesgada por un factor de . Por esta razón,se conoce como la varianza muestral sesgada .
Varianza de la muestra imparcial
La corrección de este sesgo produce la varianza muestral insesgada , denotada:
Cualquiera de los estimadores puede denominarse simplemente varianza muestral cuando la versión puede determinarse por contexto. La misma prueba también es aplicable para muestras tomadas de una distribución de probabilidad continua.
El uso del término n - 1 se denomina corrección de Bessel y también se usa en la covarianza muestral y la desviación estándar muestral (la raíz cuadrada de la varianza). La raíz cuadrada es una función cóncava y, por lo tanto, introduce un sesgo negativo (por la desigualdad de Jensen ), que depende de la distribución y, por lo tanto, la desviación estándar de la muestra corregida (utilizando la corrección de Bessel) está sesgada. La estimación insesgada de la desviación estándar es un problema técnicamente complicado, aunque para la distribución normal utilizando el término n - 1,5 se obtiene un estimador casi insesgado.
La varianza de la muestra imparcial es un U-estadística para la función ƒ ( y 1 , y 2 ) = ( y 1 - y 2 ) 2 /2, lo que significa que se obtiene promediando una estadística de 2 muestras más subconjuntos de 2 elementos de la población.
Distribución de la varianza muestral
Al ser una función de variables aleatorias , la varianza muestral es en sí misma una variable aleatoria y es natural estudiar su distribución. En el caso de que Y i sean observaciones independientes de una distribución normal , el teorema de Cochran muestra que s 2 sigue una distribución chi-cuadrado escalada : [11]
Como consecuencia directa, se sigue que
y [12]
Si los Y i son independientes e idénticamente distribuidos, pero no necesariamente distribuidos normalmente, entonces [13]
donde κ es la curtosis de la distribución y μ 4 es el cuarto momento central .
Si las condiciones de la ley de los números grandes se cumplen para las observaciones al cuadrado, s 2 es un estimador consistente de σ 2 . De hecho, se puede ver que la varianza del estimador tiende asintóticamente a cero. Kenney y Keeping (1951: 164), Rose y Smith (2002: 264) y Weisstein (sin fecha) dieron una fórmula asintóticamente equivalente. [14] [15] [16]
La desigualdad de Samuelson
La desigualdad de Samuelson es un resultado que establece límites en los valores que pueden tomar las observaciones individuales en una muestra, dado que se han calculado la media de la muestra y la varianza (sesgada). [17] Los valores deben estar dentro de los límites
Relaciones con los medios armónicos y aritméticos
Se ha demostrado [18] que para una muestra { y i } de números reales positivos,
donde y max es el máximo de la muestra, A es la media aritmética, H es la media armónica de la muestra y es la varianza (sesgada) de la muestra.
Este límite se ha mejorado y se sabe que la varianza está limitada por
donde y min es el mínimo de la muestra. [19]
Pruebas de igualdad de varianzas
Probar la igualdad de dos o más variaciones es difícil. La prueba F y las pruebas de chi cuadrado se ven afectadas negativamente por la no normalidad y no se recomiendan para este propósito.
Se han propuesto varias pruebas no paramétricas: cuenta con la prueba de Barton-David-Ansari-Freund-Siegel-Tukey, la prueba Capon , prueba del estado de ánimo , la prueba de Klotz y la prueba de Sukhatme . La prueba de Sukhatme se aplica a dos varianzas y requiere que ambas medianas sean conocidas e iguales a cero. Las pruebas Mood, Klotz, Capon y Barton – David – Ansari – Freund – Siegel – Tukey también se aplican a dos variaciones. Permiten que se desconozca la mediana, pero requieren que las dos medianas sean iguales.
La prueba de Lehmann es una prueba paramétrica de dos varianzas. De esta prueba se conocen varias variantes. Otras pruebas de igualdad de varianzas incluyen la prueba de Box , la prueba de Box-Anderson y la prueba de Moses .
Los métodos de remuestreo, que incluyen bootstrap y jackknife , pueden usarse para probar la igualdad de variaciones.
Historia
El término varianza fue introducido por primera vez por Ronald Fisher en su artículo de 1918 La correlación entre parientes sobre la suposición de herencia mendeliana : [20]
La gran cantidad de estadísticas disponibles nos muestra que las desviaciones de una medición humana de su media siguen muy de cerca la Ley Normal de Errores y, por lo tanto, que la variabilidad puede medirse uniformemente por la desviación estándar correspondiente a la raíz cuadrada de la media. error cuadrado . Cuando hay dos causas independientes de variabilidad capaces de producir distribuciones de población uniformes con desviaciones estándar y , se encuentra que la distribución, cuando ambas causas actúan juntas, tiene una desviación estándar . Por tanto, al analizar las causas de la variabilidad es deseable considerar el cuadrado de la desviación estándar como medida de variabilidad. Llamaremos a esta cantidad la Varianza ...
Momento de inercia
La varianza de una distribución de probabilidad es análoga al momento de inercia en la mecánica clásica de una distribución de masa correspondiente a lo largo de una línea, con respecto a la rotación alrededor de su centro de masa. [ cita requerida ] Es debido a esta analogía que cosas como la varianza se denominan momentos de distribuciones de probabilidad . [ cita requerida ] La matriz de covarianza está relacionada con el tensor del momento de inercia para distribuciones multivariadas. El momento de inercia de una nube de n puntos con una matriz de covarianza deviene dado por [ cita requerida ]
Esta diferencia entre el momento de inercia en física y en estadística es clara para los puntos que se recogen a lo largo de una línea. Suponga que muchos puntos están cerca del eje xy distribuidos a lo largo de él. La matriz de covarianza podría verse como
Es decir, existe la mayor variación en la dirección x . Los físicos considerarían que esto tiene un momento bajo alrededor del eje x, por lo que el tensor del momento de inercia es
Semivarianza
La semivarianza se calcula de la misma manera que la varianza, pero solo aquellas observaciones que caen por debajo de la media se incluyen en el cálculo:
Para las desigualdades asociadas con la semivarianza, consulte la desigualdad de Chebyshev § Semivarianzas .
Generalizaciones
Para variables complejas
Si es una variable aleatoria escalar de valor complejo , con valores en entonces su varianza es dónde es el complejo conjugado de Esta varianza es un escalar real.
Para variables aleatorias con valores vectoriales
Como una matriz
Si es una variable aleatoria de valor vectorial , con valores en y considerado como un vector de columna, entonces una generalización natural de la varianza es dónde y es la transposición de y también lo es un vector de fila. El resultado es una matriz cuadrada semidefinida positiva , comúnmente conocida como matriz de varianza-covarianza (o simplemente como matriz de covarianza ).
Si es una variable aleatoria de valores vectoriales y complejos, con valores en entonces la matriz de covarianza es dónde es la transposición conjugada de[ cita requerida ] Esta matriz también es positiva semidefinida y cuadrada.
Como un escalar
Otra generalización de la varianza para variables aleatorias con valores vectoriales , que da como resultado un valor escalar en lugar de una matriz, es la varianza generalizada , el determinante de la matriz de covarianza. Se puede demostrar que la varianza generalizada está relacionada con la dispersión multidimensional de puntos alrededor de su media. [22]
Se obtiene una generalización diferente considerando la distancia euclidiana entre la variable aleatoria y su media. Esto resulta enque es el rastro de la matriz de covarianza.
Ver también
- Desigualdad de Bhatia-Davis
- Coeficiente de variación
- Homocedasticidad
- Medidas de dispersión estadística
- La desigualdad de Popoviciu en las variaciones
Tipos de varianza
- Correlación
- Varianza de distancia
- Varianza explicada
- Varianza agrupada
Referencias
- ^ Yuli Zhang, Huaiyu Wu, Lei Cheng (junio de 2012). Algunas nuevas fórmulas de deformación sobre varianza y covarianza . Actas de la 4ª Conferencia Internacional sobre Modelado, Identificación y Control (ICMIC2012). págs. 987–992.Mantenimiento de CS1: utiliza el parámetro de autores ( enlace )
- ^ Loève, M. (1977) "Teoría de la probabilidad", Textos de posgrado en matemáticas , volumen 45, cuarta edición, Springer-Verlag, p. 12.
- ^ Bienaymé, I.-J. (1853) "Considérations à l'appui de la découverte de Laplace sur la loi de probabilité dans la méthode des moindres carrés", Comptes rendus de l'Académie des sciences Paris , 37, p. 309–317; copia digital disponible [1]
- ^ Bienaymé, I.-J. (1867) "Considérations à l'appui de la découverte de Laplace sur la loi de probabilité dans la méthode des moindres carrés", Journal de Mathématiques Pures et Appliquées, Serie 2 , Tomo 12, p. 158-167; copia digital disponible [2] [3]
- ^ Cornell, JR y Benjamin, CA, Probabilidad, estadísticas y decisiones para ingenieros civiles, McGraw-Hill, NY, 1970, pp.178-9.
- ^ Johnson, Richard; Wichern, Dean (2001). Análisis estadístico multivariado aplicado . Prentice Hall. pag. 76 . ISBN 0-13-187715-1.
- ^ Goodman, Leo A. (diciembre de 1960). "Sobre la varianza exacta de los productos". Revista de la Asociación Estadounidense de Estadística . 55 (292): 708–713. doi : 10.2307 / 2281592 . JSTOR 2281592 .
- ^ Kagan, A .; Shepp, LA (1998). "¿Por qué la variación?". Estadísticas y letras de probabilidad . 38 (4): 329–333. doi : 10.1016 / S0167-7152 (98) 00041-8 .
- ^ Navidi, William (2006) Estadísticas para ingenieros y científicos , McGraw-Hill, pg 14.
- ^ Montgomery, DC y Runger, GC (1994) Estadística aplicada y probabilidad para ingenieros , página 201. John Wiley & Sons New York
- ^ Knight K. (2000), Estadística matemática , Chapman y Hall, Nueva York. (proposición 2.11)
- ^ Casella y Berger (2002) Inferencia estadística , ejemplo 7.3.3, p. 331 [ se necesita cita completa ]
- ^ Cho, Eungchun; Cho, Moon Jung; Eltinge, John (2005) La varianza de la varianza muestral de una población finita. Revista Internacional de Matemáticas Puras y Aplicadas 21 (3): 387-394. http://www.ijpam.eu/contents/2005-21-3/10/10.pdf
- ^ Kenney, John F .; Keeping, ES (1951) Matemáticas de Estadística. La segunda parte. 2ª ed. D. Van Nostrand Company, Inc. Princeton: Nueva Jersey. http://krishikosh.egranth.ac.in/bitstream/1/2025521/1/G2257.pdf
- ^ Rose, Colin; Smith, Murray D. (2002) Estadística matemática con Mathematica. Springer-Verlag, Nueva York. http://www.mathstatica.com/book/Mathematical_Statistics_with_Mathematica.pdf
- ^ Weisstein, Eric W. (nd) Distribución de la varianza de la muestra. MathWorld: un recurso web de Wolfram. http://mathworld.wolfram.com/SampleVarianceDistribution.html
- ^ Samuelson, Paul (1968). "¿Qué tan desviado puede ser?". Revista de la Asociación Estadounidense de Estadística . 63 (324): 1522-1525. doi : 10.1080 / 01621459.1968.10480944 . JSTOR 2285901 .
- ^ Mercer, A. McD. (2000). "Límites para A – G, A – H, G – H, y una familia de desigualdades del tipo de Ky Fan, utilizando un método general". J. Math. Anal. Apl . 243 (1): 163-173. doi : 10.1006 / jmaa.1999.6688 .
- ^ Sharma, R. (2008). "Algunas desigualdades más para media aritmética, media armónica y varianza". Revista de Desigualdades Matemáticas . 2 (1): 109-114. CiteSeerX 10.1.1.551.9397 . doi : 10.7153 / jmi-02-11 .
- ^ Ronald Fisher (1918) La correlación entre parientes sobre el supuesto de herencia mendeliana
- ^ Fama, Eugene F .; Francés, Kenneth R. (21 de abril de 2010). "Preguntas y respuestas: Semi-varianza: ¿Una mejor medida de riesgo?" . Fama / Foro Francés .
- ^ Kocherlakota, S .; Kocherlakota, K. (2004). "Varianza generalizada". Enciclopedia de Ciencias Estadísticas . Biblioteca en línea de Wiley. doi : 10.1002 / 0471667196.ess0869 . ISBN 0471667196.