El hartley (símbolo Hart ), también llamado ban , o dit (abreviatura de d ecimal dig it ), [1] [2] [3] es una unidad logarítmica que mide información o entropía , basada en logaritmos y potencias de base 10 de 10. Un hartley es el contenido de información de un evento si la probabilidad de que ocurra ese evento es 1 ⁄ 10 . [4] Por lo tanto, es igual a la información contenida en un dígito decimal (o dit), suponiendoequiprobabilidad a priori de cada valor posible. Lleva el nombre de Ralph Hartley .
Si en su lugar se utilizan logaritmos de base 2 y potencias de 2, entonces la unidad de información es el bit , o shannon , que es el contenido de información de un evento si la probabilidad de que ocurra ese evento es 1 ⁄ 2 . Los logaritmos naturales y las potencias de e definen el nat .
Una prohibición corresponde a ln (10) nat = log 2 (10) bit o Sh , o aproximadamente 2,303 nat , o 3,322 bit. [a] Un decibán es una décima parte de una prohibición (o aproximadamente 0,332 bits); el nombre se forma a partir de ban por el prefijo SI deci- .
Aunque no hay una unidad SI asociada , la entropía de la información es parte del Sistema Internacional de Cantidades , definido por la Norma Internacional IEC 80000-13 de la Comisión Electrotécnica Internacional .
Historia
El término hartley lleva el nombre de Ralph Hartley , quien sugirió en 1928 medir la información usando una base logarítmica igual al número de estados distinguibles en su representación, que sería la base 10 para un dígito decimal. [5] [6]
La prohibición y el decibán fueron inventados por Alan Turing con Irving John "Jack" Good en 1940, para medir la cantidad de información que podían deducir los descifradores de códigos en Bletchley Park utilizando el procedimiento Banburismus , para determinar la configuración desconocida de cada día del alemán. máquina de cifrado naval Enigma . El nombre se inspiró en las enormes hojas de cartulina, impresas en la ciudad de Banbury, a unas 30 millas de distancia, que se utilizaron en el proceso. [7]
Good argumentó que la suma secuencial de decibanos para construir una medida del peso de la evidencia a favor de una hipótesis es esencialmente una inferencia bayesiana . [7] Donald A. Gillies , sin embargo, argumentó que la prohibición es, en efecto, la misma que la medida de Karl Popper de la severidad de una prueba. [8]
Uso como unidad de probabilidades
El decibán es una unidad particularmente útil para logaritmos de probabilidades , en particular como una medida de información en factores de Bayes , razones de probabilidades (razón de probabilidades, por lo que log es la diferencia de probabilidades logarítmicas) o pesos de evidencia. 10 decibanos corresponden a probabilidades de 10: 1; 20 decibanos a probabilidades de 100: 1, etc. Según Good, un cambio en el peso de la evidencia de 1 decibán (es decir, un cambio en las probabilidades de pares a aproximadamente 5: 4) es tan fino como se puede esperar razonablemente que los humanos para cuantificar su grado de creencia en una hipótesis. [9]
Las probabilidades correspondientes a decibanos enteros a menudo se pueden aproximar bien mediante relaciones enteras simples; estos se cotejan a continuación. Valor con dos decimales, aproximación simple (dentro de aproximadamente 5%), con aproximación más precisa (dentro de 1%) si una simple es inexacta:
decibanos | valor exacto | aprox. valor | aprox. proporción | relación precisa | probabilidad |
---|---|---|---|---|---|
0 | 10 0/10 | 1 | 1: 1 | 50% | |
1 | 10 1/10 | 1,26 | 5: 4 | 56% | |
2 | 10 2/10 | 1,58 | 3: 2 | 8: 5 | 61% |
3 | 10 3/10 | 2,00 | 2: 1 | 67% | |
4 | 10 4/10 | 2.51 | 5: 2 | 71,5% | |
5 | 10 5/10 | 3,16 | 3: 1 | 19: 6; 16: 5 | 76% |
6 | 10 6/10 | 3,98 | 4: 1 | 80% | |
7 | 10 7/10 | 5.01 | 5: 1 | 83% | |
8 | 10 8/10 | 6.31 | 6: 1 | 19: 3, 25: 4 | 86% |
9 | 10 9/10 | 7,94 | 8: 1 | 89% | |
10 | 10 10/10 | 10 | 10: 1 | 91% |
Ver también
- un poco
- decibel
Notas
- ^ Este valor, aproximadamente 10 ⁄ 3 , pero un poco menos, se puede entender simplemente porque: 3 dígitos decimales son un poco menos de información que 10 dígitos binarios, por lo que 1 dígito decimal es un poco menos que 10 ⁄ 3 dígitos binarios.
Referencias
- ↑ Klar, Rainer (1 de febrero de 1970). "1.8.1 Begriffe aus der Informationstheorie" [1.8.1 Términos utilizados en la teoría de la información]. Digitale Rechenautomaten - Eine Einführung [ Computadoras digitales - Introducción ]. Sammlung Göschen (en alemán). 1241 / 1241a (1 ed.). Berlín, Alemania: Walter de Gruyter & Co. / GJ Göschen'sche Verlagsbuchhandlung . Consultado el 13 de abril de 2020 . (205 páginas) (NB. Una reimpresión de 2019 de la primera edición está disponible en ISBN 3-11002793-3 , 978-3-11002793-8 . También existe una cuarta edición reelaborada y ampliada ). . pag. 35. ISBN 3-11-083160-0. ISBN 978-3-11-083160-3 . Archiv-Nr. 7990709. Archivado desde el original el 18 de abril de 2020
- ^ Klar, Rainer (1989) [1 de octubre de 1988]. "1.9.1 Begriffe aus der Informationstheorie" [1.9.1 Términos utilizados en la teoría de la información]. Digitale Rechenautomaten - Eine Einführung in die Struktur von Computerhardware [ Computadoras digitales - Introducción a la estructura del hardware de computadora ]. Sammlung Göschen (en alemán). 2050 (cuarta edición revisada). Berlín, Alemania: Walter de Gruyter & Co. p. 57. ISBN 3-11011700-2. ISBN 978-3-11011700-4 . (320 páginas)
- ^ Lukoff, Herman (1979). From Dits to Bits: Una historia personal de la computadora electrónica . Portland, Oregón, Estados Unidos: Robotics Press. ISBN 0-89661-002-0. LCCN 79-90567 .
- ^ "IEC 80000-13: 2008" . Organización Internacional de Normalización (ISO) . Consultado el 21 de julio de 2013 .
- ^ Hartley, Ralph Vinton Lyon (julio de 1928). "Transmisión de información" (PDF) . Revista técnica de Bell System . VII (3): 535–563 . Consultado el 27 de marzo de 2008 .
- ^ Reza, Fazlollah M. (1994). Introducción a la teoría de la información . Nueva York: Publicaciones de Dover . ISBN 0-486-68210-2.
- ^ a b Bueno, Irving John (1979). "Estudios de Historia de la Probabilidad y Estadística. Trabajo estadístico de XXXVII AM Turing en la Segunda Guerra Mundial". Biometrika . 66 (2): 393–396. doi : 10.1093 / biomet / 66.2.393 . Señor 0548210 .
- ^ Gillies, Donald A. (1990). "El peso de Turing-Good de la función de evidencia y la medida de Popper de la severidad de una prueba". Revista británica de filosofía de la ciencia . 41 (1): 143-146. doi : 10.1093 / bjps / 41.1.143 . JSTOR 688010 . Señor 0055678 .
- ^ Bueno, Irving John (1985). "Peso de la evidencia: una breve encuesta" (PDF) . Estadística bayesiana . 2 : 253 . Consultado el 13 de diciembre de 2012 .