La entropía es un concepto que se originó en la termodinámica y, más tarde, a través de la mecánica estadística , motivó ramas enteras de la teoría de la información , la estadística y el aprendizaje automático .
La entropía máxima es el estado de un sistema físico en mayor desorden o un modelo estadístico de información menos codificada, siendo estos importantes análogos teóricos.
La entropía máxima puede referirse a:
Física
Estadísticas
- El principio de máxima entropía.
- La distribución de probabilidad de entropía máxima
- Estimación de máxima entropía , similar a la estimación de máxima verosimilitud
Aprendizaje automático
Ver también
- Segunda ley de la termodinámica (también conocida como "la ley de la entropía creciente")