En la teoría de la probabilidad , la ley de covarianza total , [1] fórmula de descomposición de covarianza o fórmula de covarianza condicional establece que si X , Y y Z son variables aleatorias en el mismo espacio de probabilidad , y la covarianza de X e Y es finita, entonces
cov ( X , Y ) = mi ( cov ( X , Y ∣ Z ) ) + cov ( mi ( X ∣ Z ) , mi ( Y ∣ Z ) ) . {\ Displaystyle \ operatorname {cov} (X, Y) = \ operatorname {E} (\ operatorname {cov} (X, Y \ mid Z)) + \ operatorname {cov} (\ operatorname {E} (X \ mid Z), \ operatorname {E} (Y \ mid Z)).} La nomenclatura en el título de este artículo es análoga a la frase ley de la varianza total . Algunos escritores sobre probabilidad llaman a esto la " fórmula de covarianza condicional " [2] o usan otros nombres.
Nota: El condicional valores esperados E ( X | Z ) y E ( Y | Z ) son variables aleatorias cuyos valores dependen del valor de Z . Tenga en cuenta que el valor esperado condicional de X dado el evento Z = z es una función de z . Si escribimos E ( X | Z = z ) = g ( z ) entonces la variable aleatoria E ( X | Z ) es g ( Z ). Se aplican comentarios similares a la covarianza condicional.
Prueba La ley de la covarianza total se puede demostrar usando la ley de la expectativa total : Primero,
cov ( X , Y ) = mi [ X Y ] - mi [ X ] mi [ Y ] {\ Displaystyle \ operatorname {cov} (X, Y) = \ operatorname {E} [XY] - \ operatorname {E} [X] \ operatorname {E} [Y]} a partir de una identidad estándar simple sobre covarianzas. Luego aplicamos la ley de la expectativa total condicionando la variable aleatoria Z :
= mi [ mi [ X Y ∣ Z ] ] - mi [ mi [ X ∣ Z ] ] mi [ mi [ Y ∣ Z ] ] {\ displaystyle = \ operatorname {E} {\ big [} \ operatorname {E} [XY \ mid Z] {\ big]} - \ operatorname {E} {\ big [} \ operatorname {E} [X \ mid Z] {\ big]} \ operatorname {E} {\ big [} \ operatorname {E} [Y \ mid Z] {\ big]}} Ahora reescribimos el término dentro de la primera expectativa usando la definición de covarianza:
= mi [ cov ( X , Y ∣ Z ) + mi [ X ∣ Z ] mi [ Y ∣ Z ] ] - mi [ mi [ X ∣ Z ] ] mi [ mi [ Y ∣ Z ] ] {\ displaystyle = \ operatorname {E} \! {\ big [} \ operatorname {cov} (X, Y \ mid Z) + \ operatorname {E} [X \ mid Z] \ operatorname {E} [Y \ mid Z] {\ big]} - \ operatorname {E} {\ big [} \ operatorname {E} [X \ mid Z] {\ big]} \ operatorname {E} {\ big [} \ operatorname {E} [ Y \ mid Z] {\ big]}} Dado que la expectativa de una suma es la suma de las expectativas, podemos reagrupar los términos:
= mi [ cov ( X , Y ∣ Z ) ] + mi [ mi [ X ∣ Z ] mi [ Y ∣ Z ] ] - mi [ mi [ X ∣ Z ] ] mi [ mi [ Y ∣ Z ] ] {\displaystyle =\operatorname {E} \!\left[\operatorname {cov} (X,Y\mid Z)]+\operatorname {E} [\operatorname {E} [X\mid Z]\operatorname {E} [Y\mid Z]\right]-\operatorname {E} [\operatorname {E} [X\mid Z]]\operatorname {E} [\operatorname {E} [Y\mid Z]]} Finalmente, reconocemos los dos últimos términos como la covarianza de las expectativas condicionales E [ X | Z ] y E [ Y | Z ]:
= E [ cov ( X , Y ∣ Z ) ] + cov ( E [ X ∣ Z ] , E [ Y ∣ Z ] ) {\displaystyle =\operatorname {E} {\big [}\operatorname {cov} (X,Y\mid Z){\big ]}+\operatorname {cov} {\big (}\operatorname {E} [X\mid Z],\operatorname {E} [Y\mid Z]{\big )}} Ver también notas y referencias ^ Matthew R. Rudary, Sobre modelos gaussianos lineales predictivos , ProQuest, 2009, página 121. ^ Sheldon M. Ross, A First Course in Probability , sexta edición, Prentice Hall, 2002, página 392. enlaces externos