En probabilidad y estadística , una variable aleatoria multivariante o un vector aleatorio es una lista de variables matemáticas cuyo valor se desconoce, ya sea porque el valor aún no se ha producido o porque existe un conocimiento imperfecto de su valor. Las variables individuales en un vector aleatorio se agrupan porque todas forman parte de un único sistema matemático; a menudo representan propiedades diferentes de una unidad estadística individual . Por ejemplo, si bien una persona determinada tiene una edad, altura y peso específicos, la representación de estas características de una persona no especificadadentro de un grupo sería un vector aleatorio. Normalmente, cada elemento de un vector aleatorio es un número real .
Vectores aleatorios se utilizan a menudo como la implementación subyacente de diversos tipos de agregados variables aleatorias , por ejemplo, una matriz aleatoria , árbol azar , secuencia aleatoria , proceso estocástico , etc.
Más formalmente, una variable aleatoria multivariante es un vector de columna (o su transposición , que es un vector fila ) cuyos componentes son escalares -valued variables aleatorias en el mismo espacio de probabilidad como entre sí,, dónde es el espacio muestral ,es el sigma-álgebra (la colección de todos los eventos), yes la medida de probabilidad (una función que devuelve la probabilidad de cada evento ).
Distribución de probabilidad
Todo vector aleatorio da lugar a una medida de probabilidad en con el álgebra de Borel como sigma-álgebra subyacente. Esta medida también se conoce como distribución de probabilidad conjunta, distribución conjunta o distribución multivariante del vector aleatorio.
Las distribuciones de cada una de las variables aleatorias componentes.se llaman distribuciones marginales . La distribución de probabilidad condicional de dado es la distribución de probabilidad de Cuándo se sabe que tiene un valor particular.
La función de distribución acumulativa de un vector aleatorio se define como [1] : p.15
| ( Ecuación 1 ) |
dónde .
Operaciones sobre vectores aleatorios
Los vectores aleatorios pueden someterse a los mismos tipos de operaciones algebraicas que los vectores no aleatorios: suma, resta, multiplicación por un escalar y toma de productos internos .
Transformaciones afines
Del mismo modo, un nuevo vector aleatorio se puede definir aplicando una transformación afín a un vector aleatorio :
- , dónde es un matriz y es un vector de columna.
Si es una matriz invertible y tiene una función de densidad de probabilidad , entonces la densidad de probabilidad de es
- .
Mapeos invertibles
De manera más general, podemos estudiar mapeos invertibles de vectores aleatorios. [2] : p.290–291
Dejar ser un mapeo uno a uno de un subconjunto abierto de en un subconjunto de , dejar tienen derivadas parciales continuas en y dejemos que el determinante jacobiano de ser cero en ningún punto de . Suponga que el vector aleatorio real tiene una función de densidad de probabilidad y satisface . Entonces el vector aleatorio es de densidad de probabilidad
dónde indica la función del indicador y establece denota apoyo de .
Valor esperado
El valor esperado o la media de un vector aleatorio es un vector fijo cuyos elementos son los valores esperados de las respectivas variables aleatorias. [3] : p . 333
| ( Ecuación 2 ) |
Covarianza y covarianza cruzada
Definiciones
La matriz de covarianza (también llamada segundo momento central o matriz de varianza-covarianza) de una vector aleatorio es un matriz cuyo ( i, j ) ésimo elemento es la covarianza entre el i ésimo y el j ésimo variables aleatorias. La matriz de covarianza es el valor esperado, elemento por elemento, de lamatriz calculada como , donde el superíndice T se refiere a la transposición del vector indicado: [2] : p. 464 [3] : pág . 335
| ( Ecuación 3 ) |
Por extensión, la matriz de covarianza cruzada entre dos vectores aleatorios y ( teniendo elementos y teniendo elementos) es el matriz [3] : p . 336
| ( Ecuación 4 ) |
donde nuevamente la expectativa de la matriz se toma elemento por elemento en la matriz. Aquí el ( i, j ) ésimo elemento es la covarianza entre el i ésimo elemento dey el j- ésimo elemento de.
Propiedades
La matriz de covarianza es una matriz simétrica , es decir, [2] : p. 466
- .
La matriz de covarianza es una matriz semidefinida positiva , es decir, [2] : p. 465
- .
La matriz de covarianza cruzada es simplemente la transposición de la matriz , es decir
- .
Dos vectores aleatorios y se llaman no correlacionados si
- .
No están correlacionados si y solo si su matriz de covarianza cruzada es cero. [3] : p . 337
Correlación y correlación cruzada
Definiciones
La matriz de correlación (también llamada segundo momento ) de un vector aleatorio es un matriz cuyo elemento ( i, j ) ésimo es la correlación entre la i ésima y la j ésima variables aleatorias. La matriz de correlación es el valor esperado, elemento por elemento, de la matriz calculada como , donde el superíndice T se refiere a la transposición del vector indicado: [4] : p.190 [3] : p.334
| ( Ecuación 5 ) |
Por extensión, la matriz de correlación cruzada entre dos vectores aleatorios y ( teniendo elementos y teniendo elementos) es el matriz
| ( Ecuación 6 ) |
Propiedades
La matriz de correlación está relacionada con la matriz de covarianza por
- .
De manera similar para la matriz de correlación cruzada y la matriz de covarianza cruzada:
Ortogonalidad
Dos vectores aleatorios del mismo tamaño y se llaman ortogonales si
- .
Independencia
Dos vectores aleatorios y se llaman independientes si para todos y
dónde y denotar las funciones de distribución acumulativa de y ydenota su función de distribución acumulativa conjunta. Independencia de y a menudo se denota por . Escrito por componentes, y se llaman independientes si para todos
- .
Función característica
La función característica de un vector aleatorio con componentes es una función que mapea cada vector a un número complejo. Está definido por [2] : p. 468
- .
Otras propiedades
Expectativa de una forma cuadrática
Se puede esperar una forma cuadrática en el vector aleatoriode la siguiente manera: [5] : p.170-171
dónde es la matriz de covarianza de y se refiere a la traza de una matriz, es decir, a la suma de los elementos en su diagonal principal (de arriba a la izquierda a abajo a la derecha). Dado que la forma cuadrática es un escalar, también lo es su expectativa.
Prueba : dejar frijol vector aleatorio con y y deja frijol matriz no estocástica.
Luego, según la fórmula de la covarianza, si denotamos y , vemos eso:
Por eso
lo que nos deja para mostrar que
Esto es cierto basado en el hecho de que uno puede permutar cíclicamente matrices cuando se toma una traza sin cambiar el resultado final (por ejemplo:).
Vemos que
Y desde
es un escalar , entonces
trivialmente. Usando la permutación obtenemos:
y al conectar esto a la fórmula original obtenemos:
Expectativa del producto de dos formas cuadráticas diferentes
Se puede tomar la expectativa del producto de dos formas cuadráticas diferentes en un vector aleatorio gaussiano de media cerode la siguiente manera: [5] : págs. 162–176
donde de nuevo es la matriz de covarianza de . Nuevamente, dado que ambas formas cuadráticas son escalares y, por lo tanto, su producto es un escalar, la expectativa de su producto también es un escalar.
Aplicaciones
Teoría de la cartera
En la teoría de carteras en finanzas , un objetivo a menudo es elegir una cartera de activos de riesgo de manera que la distribución del rendimiento de la cartera aleatoria tenga propiedades deseables. Por ejemplo, uno podría querer elegir el rendimiento de la cartera que tenga la variación más baja para un valor esperado dado. Aquí el vector aleatorio es el vectorde rendimientos aleatorios sobre los activos individuales, y el rendimiento de la cartera p (un escalar aleatorio) es el producto interno del vector de rendimientos aleatorios con un vector w de ponderaciones de la cartera: las fracciones de la cartera colocadas en los activos respectivos. Dado que p = w T, el valor esperado del rendimiento de la cartera es w T E () y se puede demostrar que la varianza del rendimiento de la cartera es w T C w , donde C es la matriz de covarianza de.
Teoría de la regresión
En regresión lineal teoría, tenemos datos de n observaciones sobre una variable dependiente y y n observaciones sobre cada uno de k variables independientes x j . Las observaciones de la variable dependiente se apilan en un vector de columna y ; las observaciones de cada variable independiente también se apilan en vectores de columna, y estos últimos vectores de columna se combinan en una matriz de diseño X (que no denota un vector aleatorio en este contexto) de observaciones sobre las variables independientes. Luego se postula la siguiente ecuación de regresión como descripción del proceso que generó los datos:
donde β es un vector postulado fijo pero desconocido de k coeficientes de respuesta, ye es un vector aleatorio desconocido que refleja influencias aleatorias sobre la variable dependiente. Mediante alguna técnica elegida, como mínimos cuadrados ordinarios , un vectorse elige como una estimación de β, y la estimación del vector e , se denota, se calcula como
Entonces el estadístico debe analizar las propiedades de y , que se consideran vectores aleatorios ya que una selección aleatoriamente diferente de n casos para observar habría dado lugar a valores diferentes para ellos.
Serie de tiempo vectorial
La evolución de un vector aleatorio k × 1a través del tiempo se puede modelar como una autorregresión vectorial (VAR) de la siguiente manera:
donde la observación del vector i -periods-backse llama el i -ésimo retraso de, c es un vector k × 1 de constantes ( intersecciones ), A i es una matriz k × k invariante en el tiempo yes un vector aleatorio k × 1 de términos de error .
Referencias
- ^ Gallager, Robert G. (2013). Teoría de procesos estocásticos para aplicaciones . Prensa de la Universidad de Cambridge. ISBN 978-1-107-03975-9.
- ^ a b c d e Lapidoth, Amos (2009). Una base en la comunicación digital . Prensa de la Universidad de Cambridge. ISBN 978-0-521-19395-5.
- ^ a b c d e Gubner, John A. (2006). Probabilidad y procesos aleatorios para ingenieros eléctricos e informáticos . Prensa de la Universidad de Cambridge. ISBN 978-0-521-86470-1.
- ^ Papoulis, Athanasius (1991). Probabilidad, variables aleatorias y procesos estocásticos (tercera ed.). McGraw-Hill. ISBN 0-07-048477-5.
- ^ a b Kendrick, David (1981). Control estocástico para modelos económicos . McGraw-Hill. ISBN 0-07-033962-7.
Otras lecturas
- Stark, Henry; Woods, John W. (2012). "Vectores aleatorios". Probabilidad, estadística y procesos aleatorios para ingenieros (Cuarta ed.). Pearson. págs. 295–339. ISBN 978-0-13-231123-6.