En termodinámica, la entropía a menudo se asocia con la cantidad de orden o desorden en un sistema termodinámico . Esto se deriva de la afirmación de Rudolf Clausius de 1862 de que cualquier proceso termodinámico siempre "admite ser reducido [reducción] a la alteración de una forma u otra de la disposición de las partes constituyentes del cuerpo de trabajo " y que el trabajo interno asociado con estas alteraciones es cuantificado energéticamente por una medida de cambio de "entropía", de acuerdo con la siguiente expresión diferencial: [1]
- donde Q = energía de movimiento ("calor") que se transfiere reversiblemente al sistema desde el entorno y T = la temperatura absoluta a la que se produce la transferencia
En los años siguientes, Ludwig Boltzmann tradujo estas "alteraciones de la disposición" en una visión probabilística del orden y el desorden en los sistemas moleculares en fase gaseosa. En el contexto de la entropía, a menudo se ha considerado que el " desorden interno perfecto " describe el equilibrio termodinámico, pero dado que el concepto termodinámico está tan lejos del pensamiento cotidiano, el uso del término en física y química ha causado mucha confusión y malentendidos.
En los últimos años, para interpretar el concepto de entropía, describiendo con más detalle las "alteraciones de la disposición", se ha producido un cambio de las palabras "orden" y "desorden" a palabras como "propagación" y "dispersión" .
Historia
Esta perspectiva de la entropía de "ordenamiento molecular" tiene sus orígenes en las interpretaciones del movimiento molecular desarrolladas por Rudolf Clausius en la década de 1850, particularmente con su concepción visual de 1862 de la disgregación molecular . De manera similar, en 1859, después de leer un artículo sobre la difusión de moléculas de Clausius, el físico escocés James Clerk Maxwell formuló la distribución de Maxwell de velocidades moleculares, que dio la proporción de moléculas que tienen una cierta velocidad en un rango específico. Esta fue la primera ley estadística de la física. [2]
En 1864, Ludwig Boltzmann , un joven estudiante en Viena, se encontró con el artículo de Maxwell y se inspiró tanto en él que pasó gran parte de su larga y distinguida vida desarrollando aún más el tema. Posteriormente, Boltzmann, en un esfuerzo por desarrollar una teoría cinética del comportamiento de un gas, aplicó las leyes de la probabilidad a la interpretación molecular de la entropía de Maxwell y Clausius para comenzar a interpretar la entropía en términos de orden y desorden. De manera similar, en 1882 Hermann von Helmholtz usó la palabra "Unordnung" (desorden) para describir la entropía. [3]
Descripción general
Para resaltar el hecho de que comúnmente se entiende que el orden y el desorden se miden en términos de entropía, a continuación se encuentran las definiciones actuales de entropía de la enciclopedia científica y el diccionario de ciencias:
- Una medida de la indisponibilidad de la energía de un sistema para realizar un trabajo; también una medida de desorden; cuanto mayor es la entropía, mayor es el desorden. [4]
- Una medida de desorden; cuanto mayor es la entropía, mayor es el desorden. [5]
- En termodinámica, parámetro que representa el estado de desorden de un sistema a nivel atómico, iónico o molecular; cuanto mayor es el desorden, mayor es la entropía. [6]
- Una medida de desorden en el universo o de la falta de disponibilidad de energía en un sistema para realizar un trabajo. [7]
La entropía y el desorden también se asocian con el equilibrio . [8] Técnicamente, la entropía , desde esta perspectiva, se define como una propiedad termodinámica que sirve como medida de qué tan cerca está un sistema del equilibrio, es decir, del perfecto desorden interno . [9] Asimismo, el valor de la entropía de una distribución de átomos y moléculas en un sistema termodinámico es una medida del desorden en la disposición de sus partículas. [10] En una pieza de caucho estirada, por ejemplo, la disposición de las moléculas de su estructura tiene una distribución "ordenada" y tiene entropía cero, mientras que la distribución retorcida "desordenada" de los átomos y moléculas en el caucho en el el estado no estirado tiene entropía positiva. De manera similar, en un gas, el orden es perfecto y la medida de entropía del sistema tiene su valor más bajo cuando todas las moléculas están en un lugar, mientras que cuando se ocupan más puntos el gas es tanto más desordenado y la medida de la entropía del sistema tiene su mayor valor. [10]
En ecología de sistemas , como otro ejemplo, la entropía de una colección de elementos que comprenden un sistema se define como una medida de su desorden o, de manera equivalente, la probabilidad relativa de la configuración instantánea de los elementos. [11] Además, según el ecólogo teórico e ingeniero químico Robert Ulanowicz , "esa entropía podría proporcionar una cuantificación de la hasta ahora subjetiva noción de desorden ha generado innumerables narrativas científicas y filosóficas". [11] [12] En particular, muchos biólogos han comenzado a hablar en términos de la entropía de un organismo, o de su antónimo negentropía , como una medida del orden estructural dentro de un organismo. [11]
La base matemática respecto a la asociación que tiene la entropía con el orden y el desorden comenzó, esencialmente, con la famosa fórmula de Boltzmann ,, que relaciona la entropía S con el número de estados posibles W en los que se puede encontrar un sistema. [13] Como ejemplo, considere un cuadro que se divide en dos secciones. ¿Cuál es la probabilidad de que un cierto número, o todas las partículas, se encuentren en una sección frente a la otra cuando las partículas se asignan al azar a diferentes lugares dentro de la caja? Si solo tiene una partícula, entonces ese sistema de una partícula puede subsistir en dos estados, un lado de la caja frente al otro. Si tiene más de una partícula, o define los estados como subdivisiones de ubicación adicionales de la caja, la entropía es mayor porque el número de estados es mayor. La relación entre entropía, orden y desorden en la ecuación de Boltzmann es tan clara entre los físicos que, según los puntos de vista de los ecologistas termodinámicos Sven Jorgensen y Yuri Svirezhev, “es obvio que la entropía es una medida de orden o, más probablemente, desorden en el sistema." [13] En esta dirección, la segunda ley de la termodinámica, como la enunció Rudolf Clausius en 1865, establece que:
La entropía del universo tiende al máximo.
Por lo tanto, si la entropía está asociada con el desorden y si la entropía del universo se dirige hacia la entropía máxima, entonces muchos se quedan perplejos en cuanto a la naturaleza del proceso de "ordenamiento" y la operación de la evolución en relación con la versión más famosa de Clausius del segunda ley, que establece que el universo se encamina hacia un "desorden" máximo. En el reciente libro de 2003 SYNC - la ciencia emergente del orden espontáneo de Steven Strogatz , por ejemplo, encontramos que “los científicos a menudo se han sentido desconcertados por la existencia de un orden espontáneo en el universo. Las leyes de la termodinámica parecen dictar lo contrario, que la naturaleza debería degenerar inexorablemente hacia un estado de mayor desorden, mayor entropía. Sin embargo, a nuestro alrededor vemos estructuras magníficas (galaxias, células, ecosistemas, seres humanos) que de alguna manera han logrado ensamblarse ". [14]
El argumento común utilizado para explicar esto es que, localmente, la entropía puede reducirse por acción externa, por ejemplo, la acción de calentamiento solar, y esto se aplica a máquinas, como un refrigerador, donde la entropía en la cámara fría se está reduciendo, aumentando cristales y organismos vivos. [9] Este aumento local en el orden, sin embargo, solo es posible a expensas de un aumento de entropía en los alrededores; aquí debe crearse más desorden. [9] [15] El acondicionador de esta declaración es suficiente con que los sistemas vivos son sistemas abiertos en los que tanto el calor , la masa o el trabajo pueden transferirse dentro o fuera del sistema. A diferencia de la temperatura, la entropía putativa de un sistema vivo cambiaría drásticamente si el organismo estuviera termodinámicamente aislado. Si un organismo se encontrara en este tipo de situación "aislada", su entropía aumentaría notablemente a medida que los componentes del organismo que alguna vez vivieron se descompusieran en una masa irreconocible. [11]
Cambio de fase
Debido a estos primeros desarrollos, el ejemplo típico de cambio de entropía Δ S es el asociado con el cambio de fase. En los sólidos, por ejemplo, que normalmente se ordenan a escala molecular, suelen tener una entropía más pequeña que los líquidos y los líquidos tienen una entropía más pequeña que los gases y los gases más fríos tienen una entropía más pequeña que los gases más calientes. Además, de acuerdo con la tercera ley de la termodinámica , a la temperatura del cero absoluto , las estructuras cristalinas se aproximan para tener un "orden" perfecto y una entropía cero. Esta correlación se produce porque el número de diferentes estados microscópicos de energía cuántica disponibles para un sistema ordenado suele ser mucho menor que el número de estados disponibles para un sistema que parece estar desordenado.
A partir de sus famosas Conferencias sobre teoría de los gases de 1896 , Boltzmann esquematiza la estructura de un cuerpo sólido, como se muestra arriba, postulando que cada molécula del cuerpo tiene una "posición de reposo". Según Boltzmann, si se acerca a una molécula vecina es repelida por ella, pero si se aleja hay atracción. Esta, por supuesto, fue una perspectiva revolucionaria en su tiempo; muchos, durante estos años, no creyeron en la existencia de átomos o moléculas (ver: historia de la molécula ). [16] Según estos primeros puntos de vista, y otros como los desarrollados por William Thomson , si se agrega energía en forma de calor a un sólido, para convertirlo en líquido o gas, una descripción común es que el orden de los átomos y moléculas se vuelve más aleatorio y caótico con un aumento de temperatura:
Por lo tanto, según Boltzmann, debido a los aumentos en el movimiento térmico, cada vez que se agrega calor a una sustancia activa, la posición de reposo de las moléculas se separará, el cuerpo se expandirá y esto creará distribuciones y arreglos de moléculas más desordenados en los molares. . Estos arreglos desordenados, posteriormente, se correlacionan, a través de argumentos de probabilidad, con un aumento en la medida de entropía. [17]
Orden impulsado por la entropía
Históricamente, por ejemplo, Clausius y Helmholtz, la entropía se ha asociado con el desorden. Sin embargo, en el habla común, el orden se usa para describir la organización, la regularidad estructural o la forma, como la que se encuentra en un cristal en comparación con un gas. Esta noción común de orden es descrita cuantitativamente por la teoría de Landau . En la teoría de Landau, el desarrollo del orden en el sentido cotidiano coincide con el cambio en el valor de una cantidad matemática, un llamado parámetro de orden . Un ejemplo de un parámetro de orden para la cristalización es "orden de orientación de enlace" que describe el desarrollo de direcciones preferidas (los ejes cristalográficos) en el espacio. Para muchos sistemas, las fases con un orden más estructural (por ejemplo, cristalino) exhiben menos entropía que las fases fluidas en las mismas condiciones termodinámicas. En estos casos, etiquetar las fases como ordenadas o desordenadas según la cantidad relativa de entropía (según la noción de orden / desorden de Clausius / Helmholtz) o mediante la existencia de regularidad estructural (según la noción de orden / desorden de Landau) produce etiquetas coincidentes.
Sin embargo, existe una amplia clase [18] de sistemas que manifiestan un orden impulsado por la entropía, en las que las fases con organización o regularidad estructural, por ejemplo, cristales, tienen una entropía más alta que las fases estructuralmente desordenadas (por ejemplo, fluidas) en las mismas condiciones termodinámicas. En estos sistemas, las fases que serían etiquetadas como desordenadas en virtud de su mayor entropía (en el sentido de Clausius o Helmholtz) están ordenadas tanto en el sentido cotidiano como en la teoría de Landau.
En condiciones termodinámicas adecuadas, se ha predicho o descubierto que la entropía induce a los sistemas a formar cristales líquidos, cristales y cuasicristales ordenados. [19] [20] [21] En muchos sistemas, las fuerzas entrópicas direccionales impulsan este comportamiento. Más recientemente, se ha demostrado que es posible diseñar con precisión partículas para estructuras ordenadas de destino. [22]
Desmagnetización adiabática
En la búsqueda de temperaturas ultra frías, se usa una técnica de disminución de temperatura llamada desmagnetización adiabática , donde se utilizan consideraciones de entropía atómica que se pueden describir en términos de desorden de orden. [23] En este proceso, una muestra de un sólido como la sal de cromo-alumbre, cuyas moléculas son equivalentes a pequeños imanes, se encuentra dentro de un recinto aislado enfriado a baja temperatura, típicamente 2 o 4 kelvin, con un fuerte campo magnético que se aplica. al contenedor utilizando un poderoso imán externo, de modo que los diminutos imanes moleculares se alinean formando un estado "inicial" bien ordenado a esa baja temperatura. Esta alineación magnética significa que la energía magnética de cada molécula es mínima. [24] A continuación, se reduce el campo magnético externo, una eliminación que se considera muy reversible . Después de esta reducción, los imanes atómicos asumen orientaciones aleatorias menos ordenadas, debido a las agitaciones térmicas, en el estado "final":
El "desorden" y, por tanto, la entropía asociada con el cambio en las alineaciones atómicas ha aumentado claramente. [23] En términos de flujo de energía, el movimiento desde un estado alineado magnéticamente requiere energía del movimiento térmico de las moléculas, convirtiendo la energía térmica en energía magnética. [24] Sin embargo, de acuerdo con la segunda ley de la termodinámica , debido a que el calor no puede entrar o salir del contenedor, debido a su aislamiento adiabático, el sistema no debería mostrar ningún cambio en la entropía, es decir, Δ S = 0. Sin embargo, el aumento del desorden , asociado con las direcciones aleatorias de los imanes atómicos representa un aumento de entropía ? Para compensar esto, el desorden (entropía) asociado con la temperatura de la muestra debe disminuir en la misma cantidad. [23] Por tanto, la temperatura desciende como resultado de este proceso de conversión de energía térmica en energía magnética. Si luego aumenta el campo magnético, la temperatura aumenta y la sal magnética debe enfriarse nuevamente con un material frío como helio líquido. [24]
Dificultades con el término "trastorno"
En los últimos años, el uso prolongado del término "desorden" para discutir la entropía ha recibido algunas críticas. [25] [26] [27] [28] [29] [30] Los críticos de la terminología afirman que la entropía no es una medida de "desorden" o "caos", sino más bien una medida de la difusión o dispersión de la energía a más microestados. . El uso que hace Shannon del término "entropía" en la teoría de la información se refiere a la cantidad de código más comprimida o menos dispersa necesaria para abarcar el contenido de una señal. [31] [32] [33]
Ver también
- Entropía
- Producción de entropía
- Tasa de entropía
- Historia de la entropía
- Entropía de mezcla
- Entropía (teoría de la información)
- Entropía (computación)
- Entropía (dispersión de energía)
- Segunda ley de la termodinámica
- Entropía (termodinámica estadística)
- Entropía (termodinámica clásica)
Referencias
- ^ Teoría mecánica del calor - Nueve memorias sobre el desarrollo del concepto de "Entropía" por Rudolf Clausius [1850-1865]
- ↑ Mahon, Basil (2003). El hombre que lo cambió todo: la vida de James Clerk Maxwell . Hoboken, Nueva Jersey: Wiley. ISBN 0-470-86171-1.
- ^ Anderson, Greg (2005). Termodinámica de sistemas naturales . Prensa de la Universidad de Cambridge. ISBN 0-521-84772-9.
- ^ Diccionario de ciencia de Oxford , 2005
- ^ Diccionario de Química de Oxford , 2004
- ^ Diccionario esencial de ciencia de Barnes & Noble, 2004
- ^ Enciclopedia de física de partículas de Gribbin, 2000
- ^ Landsberg, PT (1984). "¿El equilibrio es siempre un máximo de entropía?" J. Stat. Física 35: 159–69.
- ^ a b c Microsoft Encarta 2006. © 1993–2005 Microsoft Corporation. Reservados todos los derechos.
- ^ a b Greven, Andreas; Keller, Gerhard; Warnercke, Gerald (2003). Entropía - Serie de Princeton en Matemáticas Aplicadas . Prensa de la Universidad de Princeton. ISBN 0-691-11338-6.
- ^ a b c d Ulanowicz, Robert, E. (2000). Crecimiento y desarrollo - Fenomenología de ecosistemas . para Excel Presione. ISBN 0-595-00145-9.
- ^ Kubat, L .; Zeman, J. (1975). Entropía e información en ciencia y filosofía . Elsevier.
- ^ a b Jorgensen, Sven, J .; Svirezhev, Yuri M (2004). Hacia una teoría termodinámica de sistemas ecológicos . Elsevier. ISBN 0-08-044167-X.
- ^ Strogatz, Steven (2003). la ciencia emergente del orden espontáneo . Theia. ISBN 0-7868-6844-9.
- ^ Brooks, Daniel, R .; Wiley, EO (1988). La entropía como evolución: hacia una teoría unificada de la biología . Prensa de la Universidad de Chicago. ISBN 0-226-07574-5.
- ^ Cercignani, Carlo (1998). Ludwig Boltzmann: el hombre que confiaba en los átomos . Prensa de la Universidad de Oxford. ISBN 9780198501541.
- ^ Boltzmann, Ludwig (1896). Conferencias sobre teoría de los gases . Dover (reimpresión). ISBN 0-486-68455-5.
- ^ van Anders, Greg; Klotsa, Daphne; Ahmed, N. Khalid; Engel, Michael; Glotzer, Sharon C. (2014). "Comprensión de la entropía de la forma a través del embalaje denso local" . Proc Natl Acad Sci USA . 111 (45): E4812 – E4821. arXiv : 1309.1187 . Código Bib : 2014PNAS..111E4812V . doi : 10.1073 / pnas.1418159111 . PMC 4234574 . PMID 25344532 .
- ^ Onsager, Lars (1949). "Los efectos de la forma en la interacción de partículas coloidales". Anales de la Academia de Ciencias de Nueva York . 51 (4): 627. Código Bibliográfico : 1949NYASA..51..627O . doi : 10.1111 / j.1749-6632.1949.tb27296.x .
- ^ Haji-Akbari, Amir; Engel, Michael; Keys, Aaron S .; Zheng, Xiaoyu; Petschek, Rolfe G .; Palffy-Muhoray, Peter; Glotzer, Sharon C. (2009). "Fases desordenadas, cuasicristalinas y cristalinas de tetraedros densamente empaquetados". Naturaleza . 462 (7274): 773–777. arXiv : 1012.5138 . Código Bibliográfico : 2009Natur.462..773H . doi : 10.1038 / nature08641 . PMID 20010683 .
- ^ Damasceno, Pablo F .; Engel, Michael; Glotzer, Sharon C. (2012). "Autoensamblaje predictivo de poliedros en estructuras complejas". Ciencia . 337 (6093): 453–457. arXiv : 1202.2177 . Código bibliográfico : 2012Sci ... 337..453D . doi : 10.1126 / science.1220869 . PMID 22837525 .
- ^ Geng, Yina; van Anders, Greg; Dodd, Paul M .; Dshemuchadse, Julia; Glotzer, Sharon C. (2019). "Ingeniería de entropía para el diseño inverso de cristales coloidales de formas duras". Avances científicos . 5 (7): eeaw0514. arXiv : 1712.02471 . doi : 10.1126 / sciadv.aaw0514 .
- ^ a b c Halliday, David; Resnick, Robert (1988). Fundamentos de Física, 3ª ed . Ampliada . Wiley. ISBN 0-471-81995-6.
- ^ a b c NASA - ¿Cómo funciona un refrigerador de desmagnetización adiabática?
- ^ Denbigh K. (1981). Los principios del equilibrio químico: con aplicaciones en química e ingeniería química . Londres: Cambridge University Press. págs. 55–56.
- ^ Jaynes, ET (1989). Aclarando misterios: el objetivo original, en Máxima entropía y métodos bayesianos , J. Skilling, Editor, Kluwer Academic Publishers, Dordrecht, págs. 1–27, página 24.
- ^ Grandy, Walter T., Jr. (2008). La entropía y la evolución temporal de los sistemas macroscópicos . Prensa de la Universidad de Oxford. págs. 55–58. ISBN 978-0-19-954617-6.
- ^ Frank L. Lambert, 2002, " Trastorno: una muleta rota para apoyar las discusiones sobre entropía ", Journal of Chemical Education 79: 187. Versión actualizada aquí .
- ^ Carson, EM y Watson, JR, (Departamento de estudios educativos y profesionales, Kings College, Londres), 2002, " Comprensión de los estudiantes de pregrado de la entropía y la energía libre de Gibbs ", Educación universitaria en química - Documentos de 2002, Royal Society of Chemistry .
- ^ Sozbilir, Mustafa, estudios de doctorado: Turquía, un estudio de la comprensión de los estudiantes universitarios de las ideas químicas clave en termodinámica , Ph.D. Tesis, Departamento de Estudios Educativos, Universidad de York, 2001.
- ^ Shannon, CE (1945). Una teoría matemática de la criptografía , Memorando para archivo, MM-45-110-98, 135 páginas, página 20; que se encuentra en el Archivo 24 en la página 203 en Claude Elwood Shannon: Misceláneos escritos editados por NJA Sloane y Aaron D. Wyner (revisión de 2013), Centro de Investigación de Ciencias Matemáticas, Laboratorios AT&T Bell, Murray Hill, Nueva Jersey; publicado anteriormente en parte por IEEE Press.
- ^ Gray, RM (2010). Teoría de la entropía y la información , Springer, Nueva York NY, 2ª edición, p. 296.
- ^ Mark Nelson (24 de agosto de 2006). "El premio Hutter" . Consultado el 27 de noviembre de 2008 .
enlaces externos
- Sitios de entropía de Lambert, FL : una guía
- Lambert, FL baraja de cartas, escritorios desordenados y dormitorios desordenados: ¿ejemplos de aumento de entropía? ¡Disparates! Revista de educación química