Min-entropía


La minientropía , en teoría de la información , es la más pequeña de la familia de entropías Rényi , correspondiente a la forma más conservadora de medir la imprevisibilidad de un conjunto de resultados, como el logaritmo negativo de la probabilidad del resultado más probable . Las diversas entropías de Rényi son todas iguales para una distribución uniforme, pero miden la imprevisibilidad de una distribución no uniforme de diferentes formas. La min-entropía nunca es mayor que la entropía ordinaria o de Shannon (que mide la impredecibilidad promedio de los resultados) y que a su vez nunca es mayor que la Hartley o la máxima entropía , definida como el logaritmo del número de resultados con probabilidad distinta de cero.

Al igual que con la entropía clásica de Shannon y su generalización cuántica, la entropía de von Neumann , se puede definir una versión condicional de min-entropía. La minientropía cuántica condicional es un análogo único, o conservador, de la entropía cuántica condicional .

Para interpretar una medida de información condicional, suponga que Alice y Bob compartieran un estado cuántico bipartito . Alice tiene acceso al sistema y Bob al sistema . La entropía condicional mide la incertidumbre promedio que Bob tiene sobre el estado de Alice al tomar muestras de su propio sistema. La minientropía se puede interpretar como la distancia entre un estado y un estado entrelazado al máximo.

Este concepto es útil en criptografía cuántica, en el contexto de la amplificación de la privacidad (ver por ejemplo [1] ).

Definición: Sea un operador de densidad bipartito en el espacio . La min-entropía de condicionado se define como

donde el mínimo se extiende sobre todos los operadores de densidad en el espacio . La medida es la máxima entropía relativa definida como