Entropía cuántica conjunta


La entropía cuántica conjunta generaliza la entropía conjunta clásica al contexto de la teoría de la información cuántica . Intuitivamente, dados dos estados cuánticos y , representados como operadores de densidad que son subpartes de un sistema cuántico, la entropía cuántica conjunta es una medida de la incertidumbre o entropía total del sistema conjunto. Está escrito o , según la notación que se utilice para la entropía de von Neumann . Como otras entropías, la entropía cuántica conjunta se mide en bits , es decir, el logaritmo se toma en base 2.

En este artículo, usaremos para la entropía cuántica conjunta.

En teoría de la información , para cualquier variable aleatoria clásica , la entropía clásica de Shannon es una medida de cuán inciertos estamos sobre el resultado de . Por ejemplo, si es una distribución de probabilidad concentrada en un punto, el resultado de es cierto y por lo tanto su entropía . En el otro extremo, si es la distribución de probabilidad uniforme con valores posibles, intuitivamente uno esperaría que esté asociada con la mayor incertidumbre. De hecho, estas distribuciones de probabilidad uniformes tienen la máxima entropía posible .

En la teoría de la información cuántica , la noción de entropía se extiende desde las distribuciones de probabilidad hasta los estados cuánticos o matrices de densidad . Para un estado , la entropía de von Neumann se define por

Aplicando el teorema espectral , o cálculo funcional de Borel para sistemas de dimensión infinita, vemos que generaliza la entropía clásica. El significado físico sigue siendo el mismo. Un estado de mezcla máxima , el análogo cuántico de la distribución de probabilidad uniforme, tiene la máxima entropía de von Neumann. Por otro lado, un estado puro , o una proyección de rango uno, tendrá una entropía de von Neumann cero. Escribimos la entropía de von Neumann (oa veces .

Dado un sistema cuántico con dos subsistemas A y B , el término entropía cuántica conjunta simplemente se refiere a la entropía de von Neumann del sistema combinado. Esto es para distinguirlo de la entropía de los subsistemas. En símbolos, si el sistema combinado está en estado ,