entropía


La entropía es un concepto científico, así como una propiedad física medible que se asocia más comúnmente con un estado de desorden, aleatoriedad o incertidumbre. El término y el concepto se utilizan en diversos campos, desde la termodinámica clásica , donde se reconoció por primera vez, hasta la descripción microscópica de la naturaleza en la física estadística y los principios de la teoría de la información . Ha encontrado aplicaciones de gran alcance en química y física , en sistemas biológicos y su relación con la vida, en cosmología , economía , sociología , climatología , cambio climático ysistemas de información, incluida la transmisión de información en telecomunicaciones . [1]

El científico e ingeniero escocés Macquorn Rankine se refirió al concepto de termodinámica en 1850 con los nombres de función termodinámica y potencial de calor . [2] En 1865, el físico alemán Rudolf Clausius , uno de los principales fundadores del campo de la termodinámica, la definió como el cociente entre una cantidad infinitesimal de calor y la temperatura instantánea . Inicialmente lo describió como contenido de transformación , en alemán Verwandlungsinhalt , y luego acuñó el término entropía de una palabra griega para transformación .. Refiriéndose a la constitución y estructura microscópica, en 1862, Clausius interpretó el concepto en el sentido de disgregación . [3]

Una consecuencia de la entropía es que ciertos procesos son irreversibles o imposibles, además del requisito de no violar la conservación de la energía , esta última expresada en la primera ley de la termodinámica . La entropía es fundamental para la segunda ley de la termodinámica , que establece que la entropía de los sistemas aislados que se dejan en evolución espontánea no puede disminuir con el tiempo, ya que siempre llegan a un estado de equilibrio termodinámico , donde la entropía es más alta.

El físico austriaco Ludwig Boltzmann explicó la entropía como la medida del número de arreglos o estados microscópicos posibles de átomos y moléculas individuales de un sistema que cumplen con la condición macroscópica del sistema. Introdujo así el concepto de desorden estadístico y distribuciones de probabilidad en un nuevo campo de la termodinámica, llamado mecánica estadística , y encontró el vínculo entre las interacciones microscópicas, que fluctúan alrededor de una configuración promedio, con el comportamiento observable macroscópicamente, en forma de un logarítmico simple. ley, con una constante de proporcionalidad , la constante de Boltzmann, que se ha convertido en una de las constantes universales definitorias del moderno Sistema Internacional de Unidades (SI).

En 1948, el científico de Bell Labs , Claude Shannon , desarrolló conceptos estadísticos similares para medir la incertidumbre microscópica y la multiplicidad para el problema de las pérdidas aleatorias de información en las señales de telecomunicaciones. Por sugerencia de John von Neumann , Shannon nombró entropía a esta entidad de información faltante de manera análoga a su uso en la mecánica estadística , y dio origen al campo de la teoría de la información . Esta descripción ha sido identificada como una definición universal del concepto de entropía. [4]


Rudolf Clausius (1822-1888), creador del concepto de entropía
Un diagrama de temperatura-entropía para vapor. El eje vertical representa la temperatura uniforme y el eje horizontal representa la entropía específica. Cada línea oscura en el gráfico representa una presión constante, y estas forman una malla con líneas grises claras de volumen constante. (El azul oscuro es agua líquida, el azul claro es una mezcla de líquido y vapor y el azul tenue es vapor. El azul grisáceo representa agua líquida supercrítica).
Durante la operación continua en estado estacionario , un balance de entropía aplicado a un sistema abierto tiene en cuenta los cambios de entropía del sistema relacionados con el flujo de calor y el flujo másico a través del límite del sistema.
Archivo:Video en cámara ultralenta de una taza de té de vidrio aplastada contra un piso de concreto.webmreproducir medios
Video en cámara lenta de un vaso de vidrio rompiéndose en un piso de concreto. En el brevísimo período de tiempo del proceso de rotura, la entropía de la masa que forma el vaso de vidrio aumenta bruscamente, a medida que la materia y la energía del vidrio se dispersan.