En teoría y estadística de probabilidad , la distribución normal multivariada , la distribución gaussiana multivariante o la distribución normal conjunta es una generalización de la distribución normal unidimensional ( univariante ) a dimensiones superiores . Una definición es que se dice que un vector aleatorio tiene una distribución normal k -variable si cada combinación lineal de sus componentes k tiene una distribución normal univariante. Su importancia deriva principalmente del teorema del límite central multivariado.. La distribución normal multivariada se utiliza a menudo para describir, al menos aproximadamente, cualquier conjunto de variables aleatorias de valor real (posiblemente) correlacionadas , cada una de las cuales se agrupa alrededor de un valor medio.
Función de densidad de probabilidad Muchos puntos muestrales de una distribución normal multivariante con y , que se muestra junto con la elipse 3-sigma, las dos distribuciones marginales y los dos histogramas 1-d. | |||
Notación | |||
---|---|---|---|
Parámetros | μ ∈ R k - ubicación Σ ∈ R k × k - covarianza ( matriz semidefinida positiva ) | ||
Apoyo | x ∈ μ + intervalo ( Σ ) ⊆ R k | ||
existe solo cuando Σ es positivo-definido | |||
Significar | μ | ||
Modo | μ | ||
Diferencia | Σ | ||
Entropía | |||
MGF | |||
CF | |||
Divergencia de Kullback-Leibler | vea abajo |
Definiciones
Notación y parametrización
La distribución normal multivariante de un vector aleatorio k -dimensional se puede escribir en la siguiente notación:
o para hacer saber explícitamente que X es k- dimensional,
con vector de media k -dimensional
tal que La inversa de la matriz de covarianza se llama matriz de precisión , denotada por.
Vector aleatorio normal estándar
Un verdadero vector aleatorio se llama vector aleatorio normal estándar si todos sus componentes son independientes y cada una es una variable aleatoria distribuida normalmente de varianza unitaria de media cero, es decir, si para todos . [1] : pág. 454
Vector aleatorio normal centrado
Un verdadero vector aleatorio se llama un vector aleatorio normal centrado si existe un determinista matriz tal que tiene la misma distribución que dónde es un vector aleatorio normal estándar con componentes. [1] : pág. 454
Vector aleatorio normal
Un verdadero vector aleatorio se llama vector aleatorio normal si existe un vector aleatorio-vector , que es un vector aleatorio normal estándar, un -vector y un matriz , tal que . [2] : pág. 454 [1] : pág. 455
Formalmente:
Aquí la matriz de covarianza es.
En el caso degenerado donde la matriz de covarianza es singular , la distribución correspondiente no tiene densidad; consulte la sección siguiente para obtener más detalles. Este caso surge con frecuencia en las estadísticas ; por ejemplo, en la distribución del vector de residuos en la regresión de mínimos cuadrados ordinarios. Laen general, no son independientes; pueden verse como el resultado de aplicar la matriz a una colección de variables gaussianas independientes .
Definiciones equivalentes
Las siguientes definiciones son equivalentes a la definición dada anteriormente. Un vector aleatorio tiene una distribución normal multivariante si satisface una de las siguientes condiciones equivalentes.
- Cada combinación lineal de sus componentes se distribuye normalmente . Es decir, para cualquier vector constante, la variable aleatoria tiene una distribución normal univariante, donde una distribución normal univariante con varianza cero es una masa puntual en su media.
- Hay un k- vectory un semidefinito positivo simétrico matriz , tal que la función característica de es
La distribución normal esférica se puede caracterizar como la distribución única donde los componentes son independientes en cualquier sistema de coordenadas ortogonales. [3] [4]
Función de densidad
Caso no degenerado
Se dice que la distribución normal multivariada es "no degenerada" cuando la matriz de covarianza simétrica es positivo definido . En este caso la distribución tiene densidad [5]
dónde es un vector de columna k -dimensional real yes el determinante de, también conocida como varianza generalizada . La ecuación anterior se reduce a la de la distribución normal univariante si es un matriz (es decir, un solo número real).
La versión circularmente simétrica de la distribución normal compleja tiene una forma ligeramente diferente.
Cada locus de isodensidad , el lugar de los puntos en el espacio k -dimensional, cada uno de los cuales da el mismo valor particular de la densidad, es una elipse o su generalización de dimensión superior; por tanto, la normal multivariante es un caso especial de las distribuciones elípticas .
La cantidad se conoce como distancia de Mahalanobis , que representa la distancia del punto de prueba de la media . Tenga en cuenta que en el caso cuando, la distribución se reduce a una distribución normal univariante y la distancia de Mahalanobis se reduce al valor absoluto de la puntuación estándar . Consulte también Intervalo a continuación.
Caso bivariado
En el caso bidimensional no singular (), la función de densidad de probabilidad de un vector es:
dónde es la correlación entre y y donde y . En este caso,
En el caso bivariado, la primera condición equivalente para la reconstrucción multivariante de la normalidad se puede hacer menos restrictiva, ya que es suficiente para verificar que existen muchas combinaciones lineales distintas de y son normales para concluir que el vector de es normal bivariado. [6]
Los loci bivariados de isodensidad graficados en el -plano son elipses , cuyos ejes principales están definidos por los vectores propios de la matriz de covarianza(los semidiámetros mayor y menor de la elipse son iguales a la raíz cuadrada de los valores propios ordenados).
Como valor absoluto del parámetro de correlación aumenta, estos loci se aprietan hacia la siguiente línea:
Esto se debe a que esta expresión, con (donde sgn es la función de signo ) reemplazado por, es la mejor predicción lineal insesgada de dado un valor de . [7]
Caso degenerado
Si la matriz de covarianza no es de rango completo, entonces la distribución normal multivariante es degenerada y no tiene densidad. Más precisamente, no tiene densidad con respecto a la medida de Lebesgue k -dimensional (que es la medida habitual asumida en los cursos de probabilidad a nivel de cálculo). Se dice que solo los vectores aleatorios cuyas distribuciones son absolutamente continuas con respecto a una medida tienen densidades (con respecto a esa medida). Para hablar de densidades pero evitar lidiar con complicaciones de la teoría de la medida, puede ser más sencillo restringir la atención a un subconjunto de de las coordenadas de tal que la matriz de covarianza para este subconjunto sea definida positiva; entonces las otras coordenadas se pueden considerar como una función afín de estas coordenadas seleccionadas. [ cita requerida ]
Entonces, para hablar de densidades de manera significativa en casos singulares, debemos seleccionar una medida base diferente. Usando el teorema de la desintegración podemos definir una restricción de la medida de Lebesgue a la-subespacio afín dimensional de donde se admite la distribución gaussiana, es decir . Con respecto a esta medida la distribución tiene la densidad del siguiente motivo:
dónde es el inverso generalizado y det * es el pseudodeterminante . [8]
Función de distribución acumulativa
La noción de función de distribución acumulativa (CDF) en la dimensión 1 se puede extender de dos maneras al caso multidimensional, basado en regiones rectangulares y elipsoidales.
La primera forma es definir el CDF de un vector aleatorio como la probabilidad de que todos los componentes de son menores o iguales a los valores correspondientes en el vector : [9]
Aunque no existe una forma cerrada para , hay varios algoritmos que lo estiman numéricamente . [9] [10]
Otra forma es definir el CDF como la probabilidad de que una muestra se encuentre dentro del elipsoide determinada por su distancia de Mahalanobis del gaussiano, una generalización directa de la desviación estándar. [11] Para calcular los valores de esta función, existen fórmulas analíticas cerradas, [11] de la siguiente manera.
Intervalo
El intervalo para la distribución normal multivariante produce una región que consta de esos vectores x que satisfacen
Aquí es un -vector dimensional, es lo conocido -vector medio dimensional, es la matriz de covarianza conocida yes la función cuantil de probabilidadde la distribución chi-cuadrado congrados de libertad. [12] Cuandola expresión define el interior de una elipse y la distribución chi-cuadrado se simplifica a una distribución exponencial con media igual a dos (tasa igual a la mitad).
Función de distribución acumulativa complementaria (distribución de cola)
La función de distribución acumulativa complementaria (ccdf) o la distribución de cola se define como. Cuándo, entonces la ccdf se puede escribir como una probabilidad del máximo de variables gaussianas dependientes: [13]
Si bien no existe una fórmula cerrada simple para calcular la ccdf, el máximo de variables gaussianas dependientes se puede estimar con precisión mediante el método de Monte Carlo . [13] [14]
Propiedades
Probabilidad en diferentes dominios
El contenido de probabilidad de la normal multivariante en un dominio cuadrático definido por (dónde es una matriz, es un vector, y es un escalar), que es relevante para la teoría de clasificación / decisión bayesiana utilizando el análisis discriminante gaussiano, viene dada por la distribución chi-cuadrado generalizada . [15] El contenido de probabilidad dentro de cualquier dominio general definido por (dónde es una función general) se puede calcular utilizando el método numérico de trazado de rayos [15] ( código Matlab ).
Momentos superiores
Los momentos de k -ésimo orden de x están dados por
donde r 1 + r 2 + ⋯ + r N = k .
Los momentos centrales de k -ésimo orden son los siguientes
- Si k es impar, μ 1,…, N ( x - μ ) = 0 .
- Si k es par con k = 2 λ , entonces
donde la suma se toma sobre todas las asignaciones del conjunto en pares λ (desordenados). Es decir, para un momento central k ésimo (= 2 λ = 6) , se suman los productos de λ = 3 covarianzas (el valor esperado μ se toma como 0 en aras de la parsimonia):
Esto produce términos en la suma (15 en el caso anterior), siendo cada uno el producto de λ (en este caso 3) covarianzas. Para los momentos de cuarto orden (cuatro variables) hay tres términos. Para momentos de sexto orden hay 3 × 5 = 15 términos, y para momentos de octavo orden hay 3 × 5 × 7 = 105 términos.
Luego, las covarianzas se determinan reemplazando los términos de la lista por los términos correspondientes de la lista que consta de r 1 unos, luego r 2 dos, etc. Para ilustrar esto, examine el siguiente caso de momento central de cuarto orden:
dónde es la covarianza de X i y X j . Con el método anterior, primero se encuentra el caso general para un k- ésimo momento con k X variables diferentes ,, y luego uno simplifica esto en consecuencia. Por ejemplo, para, se deja X i = X j y se usa el hecho de que.
Funciones de un vector normal
Una forma cuadrática de un vector normal, (dónde es una matriz, es un vector, y es un escalar), es una variable chi-cuadrado generalizada . [15]
Si es una función de valor escalar general de un vector normal, su función de densidad de probabilidad , función de distribución acumulativa y función de distribución acumulativa inversa se pueden calcular con el método numérico de trazado de rayos ( código Matlab ). [15]
Función de verosimilitud
Si se conocen la media y la matriz de covarianza, la probabilidad logarítmica de un vector observado es simplemente el logaritmo de la función de densidad de probabilidad :
- ,
La versión circularmente simétrica del caso complejo no central, donde es un vector de números complejos, sería
es decir, con la transposición conjugada (indicada por) reemplazando la transposición normal (indicada por). Esto es ligeramente diferente que en el caso real, porque la versión circularmente simétrica de la distribución normal compleja tiene una forma ligeramente diferente para la constante de normalización .
Se utiliza una notación similar para la regresión lineal múltiple . [dieciséis]
Dado que la probabilidad logarítmica de un vector normal es una forma cuadrática del vector normal, se distribuye como una variable chi cuadrado generalizada . [15]
Entropía diferencial
La entropía diferencial de la distribución normal multivariante es [17]
donde las barras indican el determinante de la matriz y k es la dimensionalidad del espacio vectorial.
Divergencia de Kullback-Leibler
La divergencia Kullback-Leibler de a , para matrices no singulares Σ 1 y Σ 0 , es: [18]
dónde es la dimensión del espacio vectorial.
El logaritmo debe tomarse en base e ya que los dos términos que siguen al logaritmo son en sí mismos logaritmos en base e de expresiones que son factores de la función de densidad o que surgen naturalmente. Por tanto, la ecuación da un resultado medido en nat . Dividir toda la expresión anterior por log e 2 produce la divergencia en bits .
Cuándo ,
Información mutua
La información mutua de una distribución es un caso especial de divergencia Kullback-Leibler en el que es la distribución multivariante completa y es el producto de las distribuciones marginales unidimensionales. En la notación de la sección de divergencia de Kullback-Leibler de este artículo,es una matriz diagonal con las entradas diagonales de, y . La fórmula resultante para la información mutua es:
dónde es la matriz de correlación construida a partir de. [ cita requerida ]
En el caso bivariado, la expresión de la información mutua es:
Normalidad conjunta
Normalmente distribuidos e independientes
Si y están distribuidos normalmente e independientes , esto implica que están "conjuntamente distribuidos normalmente", es decir, el pardebe tener una distribución normal multivariante. Sin embargo, no es necesario que un par de variables distribuidas normalmente en conjunto sean independientes (solo lo sería si no estuviera correlacionado, ).
No es necesario que dos variables aleatorias distribuidas normalmente sean bivariadas normales
El hecho de que dos variables aleatorias y ambos tienen una distribución normal no implica que el par tiene una distribución normal conjunta. Un ejemplo simple es uno en el que X tiene una distribución normal con valor esperado 0 y varianza 1, y Si y Si , dónde . Existen contraejemplos similares para más de dos variables aleatorias. En general, suman un modelo mixto . [ cita requerida ]
Correlaciones e independencia
En general, las variables aleatorias pueden no estar correlacionadas pero son estadísticamente dependientes. Pero si un vector aleatorio tiene una distribución normal multivariante, dos o más de sus componentes que no están correlacionados son independientes . Esto implica que dos o más de sus componentes que son independientes por pares son independientes. Pero, como se ha señalado justo por encima, es no cierto que dos variables aleatorias que son ( por separado , marginalmente) distribuyen normalmente y no correlacionados son independientes.
Distribuciones condicionales
Si N -dimensional x se divide de la siguiente manera
y en consecuencia μ y Σ se dividen de la siguiente manera
entonces la distribución de x 1 condicional a x 2 = a es normal multivariante ( x 1 | x 2 = a ) ~ N ( μ , Σ ) donde
y matriz de covarianza
- [19]
Esta matriz es el complemento de Schur de Σ 22 en Σ . Esto significa que para calcular la matriz de covarianza condicional, se invierte la matriz de covarianza general, se descartan las filas y columnas correspondientes a las variables a las que se está condicionando y luego se invierte para obtener la matriz de covarianza condicional. Aquíes el inverso generalizado de.
Tenga en cuenta que saber que x 2 = a altera la varianza, aunque la nueva varianza no depende del valor específico de a ; quizás más sorprendentemente, la media se desplaza por; compare esto con la situación de no conocer el valor de a , en cuyo caso x 1 tendría distribución.
Un hecho interesante derivado para probar este resultado, es que los vectores aleatorios y son independientes.
La matriz Σ 12 Σ 22 −1 se conoce como la matriz de coeficientes de regresión .
Caso bivariado
En el caso bivariado donde x se divide en y , la distribución condicional de dado es [20]
dónde es el coeficiente de correlación entre y .
Expectativa condicional bivariada
En el caso general
La expectativa condicional de X 1 dado X 2 es:
Prueba: el resultado se obtiene tomando la expectativa de la distribución condicional sobre.
En el caso centrado con variaciones unitarias
La expectativa condicional de X 1 dado X 2 es
y la varianza condicional es
por tanto, la varianza condicional no depende de x 2 .
La expectativa condicional de X 1 dado que X 2 es menor / mayor que z es: [21] : 367
donde la relación final aquí se llama la relación de Mills inversa .
Prueba: los dos últimos resultados se obtienen utilizando el resultado , así que eso
- y luego usando las propiedades de la expectativa de una distribución normal truncada .
Distribuciones marginales
Para obtener la distribución marginal sobre un subconjunto de variables aleatorias normales multivariadas, solo es necesario eliminar las variables irrelevantes (las variables que se quieren marginar) del vector medio y la matriz de covarianza. La prueba de esto se deriva de las definiciones de distribuciones normales multivariadas y álgebra lineal. [22]
Ejemplo
Sea X = [ X 1 , X 2 , X 3 ] variables aleatorias normales multivariadas con vector medio μ = [ μ 1 , μ 2 , μ 3 ] y matriz de covarianza Σ (parametrización estándar para distribuciones normales multivariadas). Entonces, la distribución conjunta de X ′ = [ X 1 , X 3 ] es normal multivariante con el vector medio μ ′ = [ μ 1 , μ 3 ] y la matriz de covarianza.
Transformacion afin
Si Y = c + BX es una transformación afín dedonde c es unvector de constantes y B es una constantematriz, entonces Y tiene una distribución normal multivariante con valor esperado c + Bμ y varianza BΣB T es decir,. En particular, cualquier subconjunto de X i tiene una distribución marginal que también es normal multivariante. Para ver esto, considere el siguiente ejemplo: para extraer el subconjunto ( X 1 , X 2 , X 4 ) T , use
que extrae los elementos deseados directamente.
Otro corolario es que la distribución de Z = b · X , donde b es un vector constante con el mismo número de elementos que X y el punto indica el producto escalar , es gaussiana univariante con. Este resultado sigue usando
Observe cómo la definición positiva de Σ implica que la varianza del producto escalar debe ser positiva.
Una transformación afín de X tal como 2 X no es la misma que la suma de dos realizaciones independientes de X .
Interpretación geométrica
Los contornos de equidensidad de una distribución normal multivariante no singular son elipsoides (es decir, transformaciones lineales de hiperesferas ) centradas en la media. [23] Por tanto, la distribución normal multivariante es un ejemplo de la clase de distribuciones elípticas . Las direcciones de los ejes principales de los elipsoides están dadas por los vectores propios de la matriz de covarianza.. Las longitudes relativas cuadradas de los ejes principales vienen dadas por los valores propios correspondientes.
Si Σ = UΛU T = UΛ 1/2 ( UΛ 1/2 ) T es una descomposición propia donde las columnas de U son vectores propios unitarios y Λ es una matriz diagonal de los valores propios, entonces tenemos
Además, se puede elegir que U sea una matriz de rotación , ya que la inversión de un eje no tiene ningún efecto sobre N (0, Λ ), pero la inversión de una columna cambia el signo del determinante de U. La distribución N ( μ , Σ ) es en efecto N (0, I ) escalada por Λ 1/2 , rotada por U y traducida por μ .
Por el contrario, cualquier elección de μ , matriz U de rango completo y entradas diagonales positivas Λ i produce una distribución normal multivariante no singular. Si cualquier Λ i es cero y U es cuadrado, la matriz de covarianza resultante UΛU T es singular . Geométricamente, esto significa que cada elipsoide de contorno es infinitamente delgado y tiene un volumen cero en el espacio n -dimensional, ya que al menos uno de los ejes principales tiene una longitud de cero; este es el caso degenerado .
"El radio alrededor de la media verdadera en una variable aleatoria normal bivariada, reescrito en coordenadas polares (radio y ángulo), sigue una distribución de Hoyt ". [24]
En una dimensión, la probabilidad de encontrar una muestra de la distribución normal en el intervalo es aproximadamente 68.27%, pero en dimensiones más altas la probabilidad de encontrar una muestra en la región de la elipse de desviación estándar es menor. [25]
Dimensionalidad | Probabilidad |
---|---|
1 | 0,6827 |
2 | 0.3935 |
3 | 0.1987 |
4 | 0.0902 |
5 | 0.0374 |
6 | 0.0144 |
7 | 0,0052 |
8 | 0,0018 |
9 | 0,0006 |
10 | 0,0002 |
Inferencia estadística
Estimación de parámetros
La derivación del estimador de máxima verosimilitud de la matriz de covarianza de una distribución normal multivariante es sencilla.
En resumen, la función de densidad de probabilidad (pdf) de una normal multivariante es
y el estimador ML de la matriz de covarianza de una muestra de n observaciones es
que es simplemente la matriz de covarianza de la muestra . Este es un estimador sesgado cuya expectativa es
Una covarianza muestral insesgada es
- (forma de matriz; I es matriz de identidad, J es matriz de unos)
La matriz de información de Fisher para estimar los parámetros de una distribución normal multivariante tiene una expresión de forma cerrada. Esto se puede utilizar, por ejemplo, para calcular el límite de Cramér – Rao para la estimación de parámetros en esta configuración. Consulte la información de Fisher para obtener más detalles.
Inferencia bayesiana
En la estadística bayesiana , el previo conjugado del vector medio es otra distribución normal multivariante y el previo conjugado de la matriz de covarianza es una distribución de Wishart inversa. . Supongamos entonces que se han realizado n observaciones
y que se le ha asignado un prior conjugado, donde
dónde
y
Entonces, [ cita requerida ]
dónde
Pruebas de normalidad multivariadas
Las pruebas de normalidad multivariante comprueban la similitud de un conjunto de datos con la distribución normal multivariante . La hipótesis nula es que el conjunto de datos es similar a la distribución normal, por lo tanto, un valor p suficientemente pequeño indica datos no normales. Las pruebas de normalidad multivariante incluyen la prueba de Cox-Small [26] y la adaptación de Smith y Jain [27] de la prueba de Friedman-Rafsky creada por Larry Rafsky y Jerome Friedman . [28]
La prueba de Mardia [29] se basa en extensiones multivariadas de medidas de asimetría y curtosis . Para una muestra { x 1 , ..., x n } de k -vectores dimensionales calculamos
Bajo la hipótesis nula de normalidad multivariante, el estadístico A tendrá aproximadamente una distribución chi-cuadrado con1/6⋅ k ( k + 1) ( k + 2) grados de libertad, y B será aproximadamente normal estándar N (0,1).
La estadística de curtosis de Mardia está sesgada y converge muy lentamente a la distribución normal limitante. Para muestras de tamaño mediano, los parámetros de la distribución asintótica del estadístico de curtosis se modifican [30] Para pruebas de muestras pequeñas () se utilizan valores críticos empíricos. Rencher [31] proporciona tablas de valores críticos para ambos estadísticos para k = 2, 3, 4.
Las pruebas de Mardia son invariantes afines pero no consistentes. Por ejemplo, la prueba de asimetría multivariante no es consistente con alternativas simétricas no normales. [32]
La prueba BHEP [33] calcula la norma de la diferencia entre la función característica empírica y la función característica teórica de la distribución normal. El cálculo de la norma se realiza en el espacio L 2 ( μ ) de funciones cuadradas integrables con respecto a la función de ponderación gaussiana. La estadística de prueba es
La distribución límite de este estadístico de prueba es una suma ponderada de variables aleatorias chi-cuadrado, [33] sin embargo, en la práctica es más conveniente calcular los cuantiles de la muestra utilizando las simulaciones de Monte-Carlo. [ cita requerida ]
Se encuentra disponible una revisión detallada de estos y otros procedimientos de prueba. [34]
Clasificación en clases normales multivariadas
Análisis discriminante gaussiano
Suponga que se supone que las observaciones (que son vectores) provienen de una de varias distribuciones normales multivariadas, con medias y covarianzas conocidas. Entonces, cualquier observación dada puede asignarse a la distribución de la que tiene la mayor probabilidad de surgir. Este procedimiento de clasificación se denomina análisis discriminante gaussiano. El rendimiento de la clasificación, es decir, las probabilidades de los diferentes resultados de clasificación y el error de clasificación general, se pueden calcular mediante el método numérico de trazado de rayos [15] ( código Matlab ).
Métodos computacionales
Dibujar valores de la distribución
Un método ampliamente utilizado para dibujar (muestrear) un vector aleatorio x de la distribución normal multivariada N -dimensional con el vector medio μ y la matriz de covarianza Σ funciona de la siguiente manera: [35]
- Encuentre cualquier matriz real A tal que A A T = Σ . Cuando Σ es positivo-definido, típicamente se usa la descomposición de Cholesky , y siempre se puede usar la forma extendida de esta descomposición (ya que la matriz de covarianza puede ser solo positiva semi-definida) en ambos casos se obtiene una matriz A adecuada . Una alternativa es usar la matriz A = UΛ ½ obtenida de una descomposición espectral Σ = UΛU −1 de Σ . El primer enfoque es más sencillo desde el punto de vista computacional, pero las matrices Un cambio para diferentes ordenamientos de los elementos del vector aleatorio, mientras que el segundo enfoque proporciona matrices que están relacionadas mediante simples reordenamientos. En teoría, ambos enfoques ofrecen formas igualmente buenas de determinar una matriz A adecuada , pero existen diferencias en el tiempo de cálculo.
- Sea z = ( z 1 ,…, z N ) T un vector cuyos componentes son N variables normales estándar independientes (que se pueden generar, por ejemplo, utilizando la transformada de Box-Muller ).
- Vamos x sea μ + Az . Esto tiene la distribución deseada debido a la propiedad de transformación afín.
Ver también
- Distribución de chi , el pdf de la norma 2 (o norma euclidiana ) de un vector multivariado normalmente distribuido (centrado en cero).
- Distribución normal compleja , una aplicación de distribución normal bivariada
- Cópula , para la definición del modelo de cópula normal o gaussiano.
- Distribución t multivariante , que es otra distribución multivariada esféricamente simétrica ampliamente utilizada.
- Extensión de distribución estable multivariante de la distribución normal multivariada, cuando el índice (exponente en la función característica) está entre cero y dos.
- Distancia de Mahalanobis
- Distribución Wishart
- Distribución normal de la matriz
Referencias
- ↑ a b c Lapidoth, Amos (2009). Una base en la comunicación digital . Prensa de la Universidad de Cambridge. ISBN 978-0-521-19395-5.
- ^ Gut, Allan (2009). Un curso intermedio en probabilidad . Saltador. ISBN 978-1-441-90161-3.
- ^ Kac, M. (1939). "Sobre una caracterización de la distribución normal". Revista Estadounidense de Matemáticas . 61 (3): 726–728. doi : 10.2307 / 2371328 . JSTOR 2371328 .
- ^ Sinz, Fabián; Gerwinn, Sebastian; Bethge, Matthias (2009). "Caracterización de la distribución normal p-generalizada" . Revista de análisis multivariante . 100 (5): 817–820. doi : 10.1016 / j.jmva.2008.07.006 .
- ^ Simon JD Prince (junio de 2012). Visión por computadora: modelos, aprendizaje e inferencia . Prensa de la Universidad de Cambridge. 3.7: "Distribución normal multivariante".
- ^ Hamedani, GG; Tata, MN (1975). "Sobre la determinación de la distribución normal bivariada a partir de distribuciones de combinaciones lineales de las variables". The American Mathematical Monthly . 82 (9): 913–915. doi : 10.2307 / 2318494 . JSTOR 2318494 .
- ^ Wyatt, John (26 de noviembre de 2008). "Estimación del error cuadrático mínimo lineal" (PDF) . Curso de apuntes sobre probabilidad aplicada . Archivado desde el original (PDF) el 10 de octubre de 2015 . Consultado el 23 de enero de 2012 .
- ^ Rao, CR (1973). Inferencia estadística lineal y sus aplicaciones . Nueva York: Wiley. págs. 527–528. ISBN 0-471-70823-2.
- ^ a b Botev, ZI (2016). "La ley normal bajo restricciones lineales: simulación y estimación mediante inclinación minimax". Revista de la Sociedad Real de Estadística, Serie B . 79 : 125-148. arXiv : 1603.04166 . Código bibliográfico : 2016arXiv160304166B . doi : 10.1111 / rssb.12162 . S2CID 88515228 .
- ^ Genz, Alan (2009). Cálculo de probabilidades normales y t multivariadas . Saltador. ISBN 978-3-642-01689-9.
- ^ a b Bensimhoun Michael, función acumulativa N-dimensional y otros datos útiles sobre gaussianos y densidades normales (2006)
- ^ Siotani, Minoru (1964). "Regiones de tolerancia para una población normal multivariante" (PDF) . Anales del Instituto de Matemática Estadística . 16 (1): 135-153. doi : 10.1007 / BF02868568 . S2CID 123269490 .
- ^ a b Botev, ZI; Mandjes, M .; Ridder, A. (6 a 9 de diciembre de 2015). "Distribución de la cola del máximo de variables aleatorias gaussianas correlacionadas". Conferencia de simulación de invierno de 2015 (CSM) . Huntington Beach, California, Estados Unidos: IEEE. págs. 633–642. doi : 10.1109 / WSC.2015.7408202 . ISBN 978-1-4673-9743-8.
- ^ Adler, RJ; Blanchet, J .; Liu, J. (7 a 10 de diciembre de 2008). "Simulación eficiente de probabilidades de cola de campos aleatorios gaussianos". Conferencia de simulación de invierno de 2008 (WSC) . Miami, Florida, Estados Unidos: IEEE. págs. 328–336. doi : 10.1109 / WSC.2008.4736085 . ISBN 978-1-4244-2707-9.Mantenimiento CS1: fecha y año ( enlace )
- ^ a b c d e f g h yo Das, Abhranil (2020). "Un método para integrar y clasificar distribuciones normales". arXiv : 2012.14331 [ stat.ML ].
- ^ Tong, T. (2010) Regresión lineal múltiple: MLE y sus resultados de distribución Archivado el 16 de junio de 2013 en WebCite , Lecture Notes
- ^ Gokhale, DV; Ahmed, NA; Res, BC; Piscataway, Nueva Jersey (mayo de 1989). "Expresiones de entropía y sus estimadores para distribuciones multivariadas". Transacciones IEEE sobre teoría de la información . 35 (3): 688–692. doi : 10.1109 / 18.30996 .
- ^ Duchi, J. "Derivaciones para álgebra lineal y optimización" (PDF) : 13. Cite journal requiere
|journal=
( ayuda ) - ^ Eaton, Morris L. (1983). Estadística multivariante: un enfoque de espacio vectorial . John Wiley e hijos. págs. 116-117. ISBN 978-0-471-02776-8.
- ^ Jensen, J (2000). Estadísticas para ingenieros petroleros y geocientíficos . Amsterdam: Elsevier. pag. 207.
- ^ Maddala, GS (1983). Variables dependientes y cualitativas limitadas en econometría . Prensa de la Universidad de Cambridge. ISBN 0-521-33825-5.
- ^ Un cálculo algebraico de la distribución marginal se muestra aquí http://fourier.eng.hmc.edu/e161/lectures/gaussianprocess/node7.html . Una prueba mucho más breve se describe aquí https://math.stackexchange.com/a/3832137
- ^ Nikolaus Hansen (2016). "La estrategia de evolución de CMA: un tutorial" (PDF) . arXiv : 1604.00772 . Código bibliográfico : 2016arXiv160400772H . Archivado desde el original (PDF) el 31 de marzo de 2010 . Consultado el 7 de enero de 2012 .
- ^ Daniel Wollschlaeger. "La Distribución Hoyt (Documentación para el paquete R 'shotGroups' versión 0.6.2)" .[ enlace muerto permanente ]
- ^ Wang, Bin; Shi, Wenzhong; Miao, Zelang (13 de marzo de 2015). Rocchini, Duccio (ed.). "Análisis de confianza de la elipse de desviación estándar y su extensión en el espacio euclidiano dimensional superior" . PLOS ONE . 10 (3): e0118537. Código Bibliográfico : 2015PLoSO..1018537W . doi : 10.1371 / journal.pone.0118537 . ISSN 1932-6203 . PMC 4358977 . PMID 25769048 .
- ^ Cox, RD; Small, NJH (1978). "Prueba de normalidad multivariante". Biometrika . 65 (2): 263. doi : 10.1093 / biomet / 65.2.263 .
- ^ Smith, SP; Jain, AK (1988). "Una prueba para determinar la normalidad multivariante de un conjunto de datos". Transacciones IEEE sobre análisis de patrones e inteligencia de máquinas . 10 (5): 757. doi : 10.1109 / 34.6789 .
- ^ Friedman, JH; Rafsky, LC (1979). "Generalizaciones multivariadas de las pruebas de dos muestras de Wald-Wolfowitz y Smirnov" . The Annals of Statistics . 7 (4): 697. doi : 10.1214 / aos / 1176344722 .
- ^ Mardia, KV (1970). "Medidas de asimetría y curtosis multivariante con aplicaciones". Biometrika . 57 (3): 519–530. doi : 10.1093 / biomet / 57.3.519 .
- ^ Rencher (1995), páginas 112-113.
- ^ Rencher (1995), páginas 493–495.
- ^ Baringhaus, L .; Henze, N. (1991). "Limitar distribuciones para medidas de asimetría multivariante y curtosis basadas en proyecciones" . Revista de análisis multivariante . 38 : 51–69. doi : 10.1016 / 0047-259X (91) 90031-V .
- ^ a b Baringhaus, L .; Henze, N. (1988). "Una prueba consistente de normalidad multivariante basada en la función característica empírica". Metrika . 35 (1): 339–348. doi : 10.1007 / BF02613322 . S2CID 122362448 .
- ^ Henze, Norbert (2002). "Pruebas invariantes de normalidad multivariante: una revisión crítica". Papeles estadísticos . 43 (4): 467–506. doi : 10.1007 / s00362-002-0119-6 . S2CID 122934510 .
- ^ Suave, JE (2009). Estadística computacional . Estadística y Computación. Nueva York: Springer. págs. 315–316. doi : 10.1007 / 978-0-387-98144-4 . ISBN 978-0-387-98143-7.
Literatura
- Rencher, AC (1995). Métodos de análisis multivariante . Nueva York: Wiley.
- Tong, YL (1990). La distribución normal multivariante . Springer Series en Estadística. Nueva York: Springer-Verlag. doi : 10.1007 / 978-1-4613-9655-0 . ISBN 978-1-4613-9657-4.