En matemáticas , una fuente de información es una secuencia de variables aleatorias que se extienden sobre un alfabeto finito Γ, con una distribución estacionaria .
La incertidumbre o tasa de entropía de una fuente de información se define como
dónde
es la secuencia de variables aleatorias que definen la fuente de información, y
es la entropía de información condicional de la secuencia de variables aleatorias. Equivalentemente, uno tiene
Ver también
Referencias
- Robert B. Ash, Teoría de la información , (1965) Publicaciones de Dover. ISBN 0-486-66521-6