De Wikipedia, la enciclopedia libre
Saltar a navegación Saltar a búsqueda

En mecánica estadística , una derivación semiclásica de la entropía que no tiene en cuenta la indistinguibilidad de las partículas , produce una expresión de la entropía que no es extensa (no es proporcional a la cantidad de sustancia en cuestión). Esto conduce a una paradoja conocida como la paradoja de Gibbs , en honor a Josiah Willard Gibbs, quien propuso este experimento mental en 1874-1875. [1] [2] La paradoja permite que la entropía de los sistemas cerrados disminuya, violando la segunda ley de la termodinámica . Una paradoja relacionada es la " paradoja de la mezcla". Si se toma la perspectiva de que la definición de entropía debe cambiarse para ignorar la permutación de partículas, se evita la paradoja.

Ilustración del problema [ editar ]

El propio Gibbs consideró el siguiente problema que surge si la entropía del gas ideal no es extensa. [1] Dos contenedores idénticos de un gas ideal se colocan uno al lado del otro. Hay una cierta entropía S asociada con cada contenedor que depende del volumen de cada contenedor. Ahora se abre una puerta en la pared del contenedor para permitir que las partículas de gas se mezclen entre los contenedores. No se producen cambios macroscópicos, ya que el sistema está en equilibrio. La entropía del gas en el sistema de dos recipiente puede ser calculada fácilmente, pero si la ecuación no es extenso, la entropía no sería 2 S . De hecho, la cantidad de entropía no extensiva definida y estudiada por Gibbs predeciría entropía adicional. Cerrar la puerta luego reduce la entropía nuevamente a 2 S, en supuesta violación de la Segunda Ley de la Termodinámica .

Como lo entendió Gibbs, [2] y enfatizado más recientemente, [3] [4] esta es una mala aplicación de la cantidad de entropía no extensiva de Gibbs. Si las partículas de gas son distinguibles, cerrar las puertas no devolverá el sistema a su estado original; muchas de las partículas habrán cambiado de contenedor. Hay libertad en lo que se define como ordenado, y sería un error concluir que la entropía no ha aumentado. En particular, la cantidad de entropía no extensiva de Gibbs para un gas ideal no estaba destinada a un número variable de partículas.

La paradoja se evita concluyendo la indistinguibilidad (al menos la indistinguibilidad efectiva) de las partículas en el volumen. Esto da como resultado la extensa ecuación de Sackur-Tetrode para la entropía, como se deriva a continuación.

Calculando la entropía del gas ideal y haciéndolo extensivo [ editar ]

En mecánica clásica, el estado de un gas ideal de energía U , volumen V y con N partículas, cada partícula con masa m , se representa especificando el vector de momento p y el vector de posición x para cada partícula. Se puede pensar que esto es como especificar un punto en un espacio de fase de dimensión 6N , donde cada uno de los ejes corresponde a una de las coordenadas de momento o posición de una de las partículas. El conjunto de puntos en el espacio de fase que podría ocupar el gas se especifica mediante la restricción de que el gas tendrá una energía particular:

y estar contenido dentro del volumen V (digamos que V es un cubo de lado X de modo que V = X 3 ):

para y

La primera restricción se define la superficie de un 3N-dimensional hiperesfera de radio (2 mU ) 1/2 y la segunda es un 3N-dimensional hipercubo de volumen V N . Estos se combinan para formar un hipercilindro de 6N dimensiones. Así como el área de la pared de un cilindro es la circunferencia de la base multiplicada por la altura, el área φ de la pared de este hipercilindro es:

La entropía es proporcional al logaritmo del número de estados que el gas podría tener mientras satisface estas restricciones. En la física clásica, el número de estados es infinitamente grande, pero según la mecánica cuántica es finito. Antes del advenimiento de la mecánica cuántica, este infinito se regularizó haciendo discreto el espacio de fase. El espacio de fase se dividió en bloques de volumen . La constante h apareció así como resultado de un truco matemático y se pensó que no tenía ningún significado físico. Sin embargo, utilizando la mecánica cuántica se recupera el mismo formalismo en el límite semiclásico, pero ahora siendo h la constante de Planck. Uno puede ver esto cualitativamente desde el principio de incertidumbre de Heisenberg ; un volumen en el espacio de fase N menor que h 3N ( h es la constante de Planck) no se puede especificar.

Para calcular el número de estados, debemos calcular el volumen en el espacio de fase en el que se puede encontrar el sistema y dividirlo por . Esto nos lleva a otro problema: el volumen parece acercarse a cero, ya que la región en el espacio de fase en la que puede estar el sistema es un área de espesor cero. Este problema es un artefacto de haber especificado la energía U con precisión infinita. En un sistema genérico sin simetrías, un tratamiento cuántico completo produciría un conjunto discreto no degenerado de estados propios de energía. Una especificación exacta de la energía fijaría entonces el estado preciso en el que se encuentra el sistema, por lo que el número de estados disponibles para el sistema sería uno, la entropía sería cero.

Cuando especificamos que la energía interna es U, lo que realmente queremos decir es que la energía total del gas se encuentra en algún lugar de un intervalo de longitud alrededor de U. Aquí se considera que es muy pequeño, resulta que la entropía no depende fuertemente en la elección de N grande. Esto significa que el "área" anterior debe extenderse a una capa de un espesor igual a una incertidumbre en el momento , por lo que la entropía está dada por:

donde la constante de proporcionalidad es k , constante de Boltzmann . Usando la aproximación de Stirling para la función Gamma que omite términos de orden menor que N , la entropía para N grande se convierte en:

Esta cantidad no es extensa, como puede verse al considerar dos volúmenes idénticos con el mismo número de partículas y la misma energía. Suponga que los dos volúmenes están separados por una barrera al principio. Quitar o reinsertar la pared es reversible, pero la entropía aumenta cuando la barrera se quita por la cantidad

lo cual está en contradicción con la termodinámica si vuelve a insertar la barrera. Esta es la paradoja de Gibbs.

La paradoja se resuelve postulando que las partículas de gas son de hecho indistinguibles. Esto significa que todos los estados que difieren solo por una permutación de partículas deben considerarse como el mismo estado. Por ejemplo, si tenemos un gas de 2 partículas y especificamos AB como un estado del gas donde la primera partícula ( A ) tiene impulso p 1 y la segunda partícula ( B ) tiene impulso p 2 , entonces este estado así como el estado BA donde la partícula B tiene un momento p 1 y la partícula A tiene un momento p 2 debe contarse como el mismo estado.

Para un gas de partículas N , hay N! estados que son idénticos en este sentido, si se supone que cada partícula se encuentra en un estado de partícula única diferente. Se puede hacer esta suposición con seguridad siempre que el gas no tenga una densidad extremadamente alta. En condiciones normales, por lo tanto, se puede calcular el volumen de espacio de fase ocupado por el gas, dividiendo la Ecuación 1 por N! . Usando la aproximación de Stirling nuevamente para N grande , ln ( N! ) ≈ N ln ( N ) - N , la entropía para N grande es:

que puede demostrarse fácilmente que es extenso. Esta es la ecuación de Sackur-Tetrode .

La paradoja de la mezcla [ editar ]

Una paradoja estrechamente relacionada con la paradoja de Gibbs es la paradoja de la mezcla . De hecho, la paradoja de Gibb es un caso especial de la "paradoja de la mezcla" que contiene todas las características sobresalientes. La diferencia es que la paradoja de la mezcla se ocupa de situaciones arbitrarias. distinciones en los dos gases, no solo distinciones en el orden de partículas como Gibbs había considerado. En este sentido, es una generalización directa del argumento presentado por Gibbs. De nuevo, tome una caja con una partición, con el gas A en un lado y el gas B en el otro lado, y ambos gases están a la misma temperatura y presión. Si los gases A y B son gases diferentes, existe una entropía que surge una vez que se mezclan los gases. Si los gases son iguales, no se calcula ninguna entropía adicional. La entropía adicional de la mezcla no depende del carácter de los gases; solo depende del hecho de que los gases sean diferentes. Los dos gases pueden ser arbitrariamente similares, pero la entropía de la mezcla no desaparece a menos que sean el mismo gas, una discontinuidad paradójica.

Esta "paradoja" puede explicarse considerando cuidadosamente la definición de entropía. En particular, como explica de manera concisa Edwin Thompson Jaynes , [2] las definiciones de entropía son arbitrarias.

Como señala un ejemplo central en el artículo de Jaynes, se puede desarrollar una teoría que trate dos gases como similares incluso si esos gases pueden en realidad distinguirse mediante una medición suficientemente detallada. Mientras no realicemos estas mediciones detalladas, la teoría no tendrá inconsistencias internas. (En otras palabras, no importa que llamemos a los gases A y B por el mismo nombre si aún no hemos descubierto que son distintos.) Si nuestra teoría llama a los gases A y B iguales, entonces la entropía no cambia cuando mézclalos. Si nuestras llamadas teoría de los gases A y B diferente, entonces la entropía hace aumento cuando se mezclan. Esta idea sugiere que las ideas de "estado termodinámico" y de "entropía" son algo subjetivas.

El aumento diferencial de entropía (dS) como resultado de mezclar gases diferentes, multiplicado por la temperatura (T), es igual a la cantidad mínima de trabajo que debemos hacer para restaurar los gases a su estado original separado. Supongamos que dos gases son diferentes, pero que no podemos detectar sus diferencias. Si estos gases están en una caja, separados entre sí por una partición, ¿cuánto trabajo se necesita para restaurar el estado original del sistema después de que retiramos la partición y dejamos que los gases se mezclen?

Ninguno: simplemente vuelva a insertar la partición. Aunque los gases se han mezclado, nunca hubo un cambio de estado detectable en el sistema, porque, según la hipótesis, los gases son indistinguibles experimentalmente.

Tan pronto como podamos distinguir la diferencia entre los gases, el trabajo necesario para recuperar la configuración macroscópica de premezcla del estado de posmezcla se vuelve distinto de cero. Esta cantidad de trabajo no depende de cuán diferentes sean los gases, sino solo de si son distinguibles.

Esta línea de razonamiento es particularmente informativa cuando se consideran los conceptos de partículas indistinguibles y el conteo correcto de Boltzmann . La expresión original de Boltzmann para el número de estados disponibles para un gas supuso que un estado podría expresarse en términos de un número de "subniveles" de energía, cada uno de los cuales contiene un número particular de partículas. Mientras que las partículas en un subnivel dado se consideraron indistinguibles entre sí, las partículas en diferentes subniveles se consideraron distinguibles de las partículas en cualquier otro subnivel. Esto equivale a decir que el intercambio de dos partículas en dos subniveles diferentes dará como resultado un "macroestado de intercambio" del gas detectablemente diferente. Por ejemplo, si consideramos un gas simple con Npartículas, a una densidad suficientemente baja que es prácticamente seguro que cada subnivel contiene una partícula o ninguna (es decir, un gas de Maxwell-Boltzmann), esto significa que un simple contenedor de gas estará en uno de N! "macroestados de intercambio" detectables diferentes, uno para cada posible intercambio de partículas.

Así como la paradoja de la mezcla comienza con dos recipientes detectablemente diferentes, y la entropía adicional que resulta de la mezcla es proporcional a la cantidad promedio de trabajo necesario para restaurar ese estado inicial después de la mezcla, la entropía adicional en la derivación original de Boltzmann es proporcional a la media. cantidad de trabajo requerido para restaurar el gas simple de algún "macroestado de intercambio" a su "macroestado de intercambio" original. Si asumimos que de hecho no hay una diferencia detectable experimentalmente en estos "macroestados de intercambio" disponibles, entonces el uso de la entropía que resulta de asumir que las partículas son indistinguibles producirá una teoría consistente. Este es el "recuento correcto de Boltzmann".

A menudo se dice que la resolución de la paradoja de Gibbs se deriva del hecho de que, según la teoría cuántica, las partículas iguales son indistinguibles en principio. Según el razonamiento de Jaynes, si las partículas son experimentalmente indistinguibles por cualquier razón, la paradoja de Gibbs se resuelve, y la mecánica cuántica solo proporciona una seguridad de que en el reino cuántico, esta indistinguibilidad será cierta como una cuestión de principio, en lugar de deberse a un problema. capacidad experimental insuficientemente refinada.

Entropía no extensa de dos gases ideales y cómo solucionarlo [ editar ]

En esta sección, presentamos a grandes rasgos una derivación puramente clásica de la entropía no extensiva para un gas ideal considerado por Gibbs antes de que se tenga en cuenta el "recuento correcto" (indistinguibilidad de partículas). A esto le sigue una breve discusión de dos métodos estándar para hacer extensiva la entropía. Finalmente, presentamos un tercer método, debido a R. Swendsen, para un resultado extenso (aditivo) para la entropía de dos sistemas si se les permite intercambiar partículas entre sí. [5] [6]

Configuración [ editar ]

Presentaremos una versión simplificada del cálculo. Se diferencia del cálculo completo en tres formas:

  1. El gas ideal consta de partículas confinadas a una dimensión espacial.
  2. Mantenemos sólo los términos de orden , dejando caer todos los términos de tamaño n o menos, donde n es el número de partículas. Para nuestros propósitos, esto es suficiente, porque aquí es donde aparece la paradoja de Gibbs y donde debe resolverse. Los términos desatendidos juegan un papel cuando el número de partículas no es muy grande, como en la simulación por computadora y la nanotecnología . Además, son necesarios para derivar la ecuación de Sackur-Tetrode .
  3. Se omite la subdivisión del espacio de fase en unidades de la constante de Planck (h). En cambio, la entropía se define usando una integral sobre la porción "accesible" del espacio de fase. Esto sirve para resaltar la naturaleza puramente clásica del cálculo.

Comenzamos con una versión de la entropía de Boltzmann en la que el integrando es todo el espacio de fase accesible :

La integral está restringida a un contorno de regiones disponibles de espacio de fase, sujeto a conservación de energía. En contraste con las integrales lineales unidimensionales que se encuentran en la física elemental, el contorno de la energía constante posee una gran cantidad de dimensiones. La justificación para la integración en el espacio de fase utilizando la medida canónica implica el supuesto de igual probabilidad. La suposición se puede hacer invocando la hipótesis ergódica así como el teorema de Liouville de los sistemas hamiltonianos .

(La hipótesis ergódica subyace a la capacidad de un sistema físico para alcanzar el equilibrio térmico , pero esto no siempre es válido para las simulaciones por computadora (ver el problema de Fermi-Pasta-Ulam-Tsingou ) o en ciertos sistemas del mundo real como los plasmas no térmicos .)

El teorema de Liouville asume un número fijo de dimensiones que el sistema 'explora'. En los cálculos de entropía, el número de dimensiones es proporcional al número de partículas en el sistema, lo que obliga al espacio de fase a cambiar abruptamente la dimensionalidad cuando se suman o restan partículas. Esto puede explicar las dificultades para construir una derivación clara y simple para la dependencia de la entropía del número de partículas.

Para el gas ideal, el espacio de fase accesible es una (n-1) -esfera (también llamada hiperesfera) en el espacio dimensional :

Para recuperar el resultado paradójico de que la entropía no es extensa, integramos el espacio de fase para un gas de partículas monoatómicas confinado a una única dimensión espacial por . Dado que nuestro único propósito es iluminar una paradoja, se simplifica la notación mediante la adopción de la masa de la partícula y la constante de Boltzmann igual a la unidad: . Representamos puntos en fase-espacio y sus x y v partes en n y 2n vectores dimensionales:

  donde     y  

Para calcular la entropía, utilizamos el hecho de que la esfera (n-1) tiene un "volumen de hipersuperficie" ( n - 1 ) -dimensional de,

Por ejemplo, si n = 2, la 1-esfera es el círculo , una "hipersuperficie" en el plano. Cuando la esfera sea de dimensión par ( n impar), será necesario utilizar la función gamma para dar significado al factorial; vea abajo.

Paradoja de Gibbs en un gas unidimensional [ editar ]

La paradoja de Gibbs surge cuando la entropía se calcula utilizando un espacio de fase dimensional, donde también está el número de partículas en el gas. Estas partículas están confinadas espacialmente al intervalo unidimensional . El volumen de la superficie de energía fija es

Los subíndices de se utilizan para definir las 'variables de estado' y se discutirán más adelante, cuando se argumente que el número de partículas carece de estado completo como variable de estado en este cálculo. El espacio de configuración integral superior es . Como se indica en la riostra, el espacio de sobrevelocidad integral está restringido al "área de superficie" de la hiperesfera de radio n - 1 dimensional , y por lo tanto es igual al "área" de esa hiperesuperficie. Por lo tanto

Después de aproximar el factorial y descartar los términos pequeños, obtenemos

En la segunda expresión, el término se resta y se suma, utilizando el hecho de que . Esto se hizo para resaltar exactamente cómo la "entropía" definida aquí no es una propiedad extensa de la materia. Los dos primeros términos son extensos: si el volumen del sistema se duplica, pero se llena con la misma densidad de partículas con la misma energía, entonces cada uno de estos términos se duplica. Pero el tercer término no es ni extensivo ni intensivo y, por lo tanto, es incorrecto.

Se ha agregado la constante arbitraria porque la entropía generalmente se puede ver como definida hasta una constante aditiva arbitraria. Esto es especialmente necesario cuando la entropía se define como el logaritmo de un volumen de espacio de fase medido en unidades de posición de momento. Cualquier cambio en cómo se definen estas unidades sumará o restará una constante del valor de la entropía.

Dos formas estándar de hacer extensiva la entropía clásica [ editar ]

Como se discutió anteriormente , una forma extensa de entropía se recupera si dividimos el volumen del espacio de fase , por n !. Un enfoque alternativo es argumentar que no se puede confiar en la dependencia del número de partículas sobre la base de que el cambio también cambia la dimensionalidad del espacio de fase. Tales cambios en la dimensionalidad se encuentran fuera del alcance de la mecánica hamiltoniana y del teorema de Liouville . Por esa razón, es plausible permitir que la constante arbitraria sea una función de . [7] Definiendo la función como , tenemos:

,

que tiene una amplia escala:

Enfoque de intercambio de partículas de Swendsen [ editar ]

Siguiendo a Swendsen, [5] [6] permitimos que dos sistemas intercambien partículas. Esto esencialmente "hace espacio" en el espacio de fase para que las partículas entren o salgan sin requerir un cambio en el número de dimensiones del espacio de fase. El número total de partículas es :

  • las partículas tienen coordenadas .
La energía total de estas partículas es
  • las partículas tienen coordenadas .
La energía total de estas partículas es
  • El sistema está sujeto a las limitaciones y

Tomando la integral sobre el espacio de fase, tenemos:

Los signos de interrogación (?) Sirven como recordatorio de que no podemos asumir que las primeras n partículas A (es decir, 1 aunque n A ) están en el sistema A mientras que las otras partículas (n B a N) están en el sistema B. (Esto se analiza con más detalle en la siguiente sección).

Tomando el logaritmo y manteniendo solo los términos más grandes, tenemos:

Esto puede interpretarse como la suma de la entropía del sistema A y del sistema B, ambos extensivos. Y hay un término , que no es extenso.

Visualización del enfoque de intercambio de partículas en tres dimensiones [ editar ]

Un gas ideal de tres partículas dividido en dos partes

Las fórmulas correctas (extensas) para los sistemas A y B se obtuvieron porque incluimos todas las formas posibles en que los dos sistemas podrían intercambiar partículas. El uso de combinaciones (es decir, N partículas eligen N A ) se utilizó para determinar el número de formas en que las N partículas se pueden dividir en el sistema A que contiene n partículas A y el sistema B que contiene n B partículas. Este recuento no se justifica por motivos físicos, sino por la necesidad de integrarse en el espacio de fase. Como se ilustrará a continuación, el espacio de fase no contiene una sola esfera n A y una sola esfera n B , sino que

pares de n-esferas, todas situadas en el mismo espacio de velocidad N + 1-dimensional. La integral sobre el espacio de fase accesible debe incluir todas estas n-esferas, como se puede ver en la figura, que muestra el espacio de fase de velocidad real asociado con un gas que consta de tres partículas. Además, este gas se ha dividido en dos sistemas, A y B.

Si ignoramos las variables espaciales, el espacio de fase de un gas con tres partículas es tridimensional, lo que permite dibujar las n esferas sobre las que se debe tomar la integral sobre el espacio de fase. Si las tres partículas están juntas, la división entre los dos gases es 3 | 0. El espacio de fase accesible está delimitado por una esfera ordinaria ( 2 esferas ) con un radio que es o (dependiendo del sistema que tenga las partículas).

Si la división es 2 | 1, entonces el espacio de fase consta de círculos y puntos . Cada círculo ocupa dos dimensiones, y para cada círculo, dos puntos se encuentran en el tercer eje, equidistantes del centro del círculo. En otras palabras, si el sistema A tiene 2 partículas, el espacio de fase accesible consta de 3 pares de n-esferas , siendo cada par una esfera 1 y una esfera 0 :

Tenga en cuenta que

Referencias [ editar ]

  1. ↑ a b Gibbs, J. Willard (1875–1878). Sobre el equilibrio de sustancias heterogéneas . Connecticut Acad. Sci. ISBN 0-8493-9685-9.Reimpreso en Gibbs, J. Willard (octubre de 1993). Los artículos científicos de J. Willard Gibbs (Vol. 1) . Prensa de proa de buey. ISBN 0-918024-77-3. y en Gibbs, J. Willard (febrero de 1994). Los artículos científicos de J. Willard Gibbs (Vol. 2) . Prensa de proa de buey. ISBN 1-881987-06-X.
  2. ↑ a b c Jaynes, Edwin T (1996). "La paradoja de Gibbs" (PDF) . Consultado el 8 de noviembre de 2005 .
  3. ^ Grad, Harold (1961). "Las muchas caras de la entropía". Comunicaciones sobre Matemática Pura y Aplicada . 14 (3): 323–354. doi : 10.1002 / cpa.3160140312 .
  4. van Kampen, NG (1984). "La paradoja de Gibbs". En WE Parry (ed.). Ensayos de física teórica en honor a Dirk ter Haar . Oxford: Pérgamo. ISBN 978-0080265230.
  5. ↑ a b Swendsen, Robert (marzo de 2006). "Mecánica estadística de coloides y definición de entropía de Boltzmann". Revista estadounidense de física . 74 (3): 187-190. Código Bibliográfico : 2006AmJPh..74..187S . doi : 10.1119 / 1.2174962 .
  6. ↑ a b Swendsen, Robert H. (junio de 2002). "Mecánica estadística de sistemas clásicos con partículas distinguibles". Revista de física estadística . 107 (5/6): 1143–1166. Código Bibliográfico : 2002JSP ... 107.1143S . doi : 10.1023 / A: 1015161825292 . S2CID 122463989 . 
  7. ^ Jaynes, ET (1992). La paradoja de Gibbs en métodos bayesianos y entropía máxima (editado por CR Smith, GJ Erickson y PO Neudorfere) (PDF) . Dordrecht, Holanda: Kluwer Academic Publishers. págs. 1–22. En particular, Gibbs no señaló que una "constante de integración" no era una constante arbitraria, sino una función arbitraria. Pero esto tiene, como veremos, consecuencias físicas no triviales. Lo que es notable no es que Gibbs no debería haber dejado de enfatizar un punto matemático en casi las últimas palabras que escribió; pero eso durante 80 años a partir de entonces, todos los escritores de libros de texto (excepto posiblemente Pauli) no lo vieron.

Lectura adicional [ editar ]

  • Chih-Yuan Tseng y Ariel Caticha (2001). "Sin embargo, otra resolución de la paradoja de Gibbs: un enfoque de la teoría de la información". En RL Fry (ed.). Inferencia bayesiana y métodos de máxima entropía en ciencia e ingeniería . Actas de la conferencia AIP. 617 . pag. 331. arXiv : cond-mat / 0109324 . doi : 10.1063 / 1.1477057 .
  • Dieks, Dennis (2011). "La paradoja de Gibbs revisitada". En Dennis Dieks; Wenceslao J. González; Stephan Hartmann ; Thomas Uebel; Marcel Weber (eds.). Explicación, predicción y confirmación . La filosofía de la ciencia en una perspectiva europea. págs. 367–377. arXiv : 1003.0179 . doi : 10.1007 / 978-94-007-1180-8_25 . ISBN 978-94-007-1179-2. S2CID  118395415 .

Enlaces externos [ editar ]

  • La paradoja de Gibbs y sus resoluciones : diversos artículos recopilados