En mecánica estadística , el algoritmo de Gibbs , introducido por J. Willard Gibbs en 1902, es un criterio para elegir una distribución de probabilidad para el conjunto estadístico de microestados de un sistema termodinámico minimizando la probabilidad logarítmica promedio.
sujeto a la distribución de probabilidad p i que satisface un conjunto de restricciones (generalmente valores esperados) correspondientes a las cantidades macroscópicas conocidas . [1] en 1948, Claude Shannon interpretó el negativo de esta cantidad, a la que llamó entropía de información , como una medida de la incertidumbre en una distribución de probabilidad. [1] En 1957, ET Jaynes se dio cuenta de que esta cantidad podía interpretarse como información faltante sobre cualquier cosa, y generalizó el algoritmo de Gibbs a sistemas que no estaban en equilibrio con el principio de termodinámica de máxima entropía y máxima entropía . [1]
Los físicos llaman al resultado de aplicar el algoritmo de Gibbs la distribución de Gibbs para las restricciones dadas, más notablemente el gran conjunto canónico de Gibbs para sistemas abiertos cuando se dan la energía promedio y el número promedio de partículas. (Ver también función de partición ).
Este resultado general del algoritmo de Gibbs es entonces una distribución de probabilidad de entropía máxima . Los estadísticos identifican tales distribuciones como pertenecientes a familias exponenciales .
Referencias
- ↑ a b c Dewar, Roderick C. (2005). "4. Producción máxima de entropía y mecánica estadística de desequilibrio". En Kleidon, A. (ed.). Termodinámica del desequilibrio y producción de entropía: vida, tierra y más allá . Comprensión de sistemas complejos. Berlín: Springer. págs. 41–55. doi : 10.1007 / 11672906_4 . ISBN 9783540224952.