En teoría de la información y estadística , la negentropía se usa como una medida de distancia a la normalidad. El concepto y la frase " entropía negativa " fueron introducidos por Erwin Schrödinger en su libro de divulgación científica de 1944 ¿Qué es la vida? [1] Más tarde, Léon Brillouin acortó la frase a negentropía . [2] [3] En 1974, Albert Szent-Györgyi propone sustituir el término negentropy con sintropía . Ese término puede haberse originado en la década de 1940 con el matemático italiano Luigi Fantappiè., quien trató de construir una teoría unificada de biología y física . Buckminster Fuller intentó popularizar este uso, pero la negentropía sigue siendo común.
En una nota a ¿Qué es la vida? Schrödinger explicó su uso de esta frase.
... si hubiera estado atendiendo solo a ellos [físicos], debería haber dejado que la discusión girara en torno a la energía libre . Es la noción más familiar en este contexto. Pero este término altamente técnico parecía lingüísticamente demasiado cercano a la energía para hacer que el lector promedio se diese cuenta del contraste entre las dos cosas.
En 2009, Mahulikar & Herwig redefinieron la negentropía de un subsistema ordenado dinámicamente como el déficit de entropía específico del subsistema ordenado en relación con el caos circundante. [4] Por lo tanto, la negentropía tiene unidades SI de (J⋅kg −1 ⋅K −1 ) cuando se define en base a la entropía específica por unidad de masa, y (K −1 ) cuando se define en base a la entropía específica por unidad de energía. Esta definición permitió: i ) representación termodinámica invariante en escala de la existencia del orden dinámico, ii ) formulación de principios físicos exclusivamente para la existencia y evolución del orden dinámico, y iii ) interpretación matemática de la deuda de negentropía de Schrödinger.
Teoría de la información
En teoría de la información y estadística , la negentropía se usa como una medida de distancia a la normalidad. [5] [6] [7] De todas las distribuciones con una media y varianza dadas, la distribución normal o gaussiana es la que tiene la entropía más alta. La negentropía mide la diferencia de entropía entre una distribución dada y la distribución gaussiana con la misma media y varianza. Por lo tanto, la negentropía es siempre no negativa, es invariable por cualquier cambio lineal invertible de coordenadas y desaparece si y solo si la señal es gaussiana.
La negentropía se define como
dónde es la entropía diferencial de la densidad gaussiana con la misma media y varianza que y es la entropía diferencial de :
La negentropía se utiliza en estadística y procesamiento de señales . Está relacionado con la entropía de la red , que se utiliza en el análisis de componentes independientes . [8] [9]
La negentropía de una distribución es igual a la divergencia de Kullback-Leibler entre y una distribución gaussiana con la misma media y varianza que (ver Entropía diferencial § Maximización en la distribución normal para una prueba). En particular, siempre es no negativo.
Correlación entre la negentropía estadística y la energía libre de Gibbs
Existe una cantidad física estrechamente ligada a la energía libre ( entalpía libre ), con una unidad de entropía e isomorfa a la negentropía conocida en estadística y teoría de la información. En 1873, Willard Gibbs creó un diagrama que ilustra el concepto de energía libre correspondiente a la entalpía libre . En el diagrama se puede ver la cantidad llamada capacidad de entropía . Esta cantidad es la cantidad de entropía que puede aumentarse sin cambiar una energía interna o aumentar su volumen. [10] En otras palabras, es una diferencia entre el máximo posible, bajo condiciones asumidas, la entropía y su entropía real. Corresponde exactamente a la definición de negentropía adoptada en estadística y teoría de la información. Massieu introdujo una cantidad física similar en 1869 para el proceso isotérmico [11] [12] [13] (ambas cantidades difieren sólo con un signo de figura) y luego Planck para el proceso isotérmico - isobárico . [14] Más recientemente, se ha demostrado que el potencial termodinámico de Massieu-Planck , también conocido como entropía libre , juega un papel importante en la denominada formulación entrópica de la mecánica estadística , [15] aplicada entre otras en biología molecular [16] ] y procesos termodinámicos de desequilibrio. [17]
- dónde:
- es la entropía
- es negentropía ("capacidad de Gibbs para la entropía")
- es el potencial de Massieu
- es la función de partición
- la constante de Boltzmann
En particular, matemáticamente la negentropía (la función de entropía negativa, en física interpretada como entropía libre) es el conjugado convexo de LogSumExp (en física interpretado como energía libre).
Principio de negentropía de información de Brillouin
En 1953, Léon Brillouin derivó una ecuación general [18] que indica que el cambio de un valor de bit de información requiere al menosenergía. Esta es la misma energía que el trabajo que produce el motor de Leó Szilárd en el caso idealista. En su libro, [19] exploró más a fondo este problema y concluyó que cualquier causa de este cambio de valor de bit (medición, decisión sobre una pregunta de sí / no, borrado, visualización, etc.) requerirá la misma cantidad de energía.
Ver también
- Exergía
- Entropía libre
- Entropía en termodinámica y teoría de la información
Notas
- ^ Schrödinger, Erwin, Qué es la vida: el aspecto físico de la célula viva , Cambridge University Press, 1944
- ^ Brillouin, Leon: (1953) "Principio de Negentropía de la Información", J. de Física Aplicada , v. 24 (9) , págs. 1152-1163
- ^ Léon Brillouin, La science et la théorie de l'information , Masson, 1959
- ^ Mahulikar, SP & Herwig, H .: (2009) "Principios termodinámicos exactos para la existencia de un orden dinámico y la evolución en el caos", Chaos, Solitons & Fractals , v. 41 (4) , págs. 1939-1948
- ^ Aapo Hyvärinen, Encuesta sobre análisis de componentes independientes, nodo32: Negentropy , Laboratorio de informática y ciencias de la información de la Universidad de Tecnología de Helsinki
- ^ Aapo Hyvärinen y Erkki Oja, Análisis de componentes independientes: un tutorial, nodo14: Negentropy , Laboratorio de informática y ciencias de la información de la Universidad de Tecnología de Helsinki
- ^ Ruye Wang, Análisis de componentes independientes, nodo4: Medidas de no gaussianidad
- ^ P. Comon, Análisis de componentes independientes: ¿un nuevo concepto ?, Procesamiento de señales , 36 287-314, 1994.
- ^ Didier G. Leibovici y Christian Beckmann, Una introducción a los métodos de múltiples vías para el experimento de fMRI de múltiples sujetos , Informe técnico de FMRIB 2001, Centro de Oxford para la obtención de imágenes de resonancia magnética funcional del cerebro (FMRIB), Departamento de neurología clínica, Universidad de Oxford, John Hospital Radcliffe, Headley Way, Headington, Oxford, Reino Unido.
- ^ Willard Gibbs, Un método de representación geométrica de las propiedades termodinámicas de sustancias por medio de superficies , Transacciones de la Academia de Connecticut , 382-404 (1873)
- ↑ Massieu, MF (1869a). Sur les fonctions caractéristiques des divers fluides. CR Acad. Sci. LXIX: 858–862.
- ↑ Massieu, MF (1869b). Addition au precedent memoire sur les fonctions caractéristiques. CR Acad. Sci. LXIX: 1057–1061.
- ↑ Massieu, MF (1869), Compt. Desgarrar. 69 (858): 1057.
- ^ Planck, M. (1945). Tratado de termodinámica . Dover, Nueva York.
- ^ Antoni Planes, Eduard Vives, Formulación entrópica de la mecánica estadística , variables entrópicas y funciones de Massieu-Planck 2000-10-24 Universitat de Barcelona
- ^ John A. Scheilman, temperatura, estabilidad y la interacción hidrofóbica , Biophysical Journal 73 (diciembre de 1997), 2960-2964, Instituto de Biología Molecular, Universidad de Oregon, Eugene, Oregon 97403 EE. UU.
- ^ Z. Hens y X. de Hemptinne, Enfoque de termodinámica sin equilibrio para procesos de transporte en mezclas de gases , Departamento de Química, Universidad Católica de Lovaina, Celestijnenlaan 200 F, B-3001 Heverlee, Bélgica
- ^ Leon Brillouin, El principio de negentropía de la información, J. Applied Physics 24 , 1152-1163 1953
- ^ Leon Brillouin, Teoría de la ciencia y la información , Dover, 1956