El bit es la unidad de información más básica en informática y comunicaciones digitales . El nombre es una contracción de un dígito binario . [1] El bit representa un estado lógico con uno de dos valores posibles . Estos valores se representan más comúnmente como "1" o "0" , pero otras representaciones como verdadero / falso , sí / no , + / - o encendido / apagado son comunes.
La correspondencia entre estos valores y los estados físicos del almacenamiento o dispositivo subyacente es una cuestión de convención, y se pueden usar diferentes asignaciones incluso dentro del mismo dispositivo o programa . Puede implementarse físicamente con un dispositivo de dos estados.
El símbolo del dígito binario es un bit por recomendación de la norma IEC 80000-13 : 2008, o el carácter b minúscula , según lo recomendado por la norma IEEE 1541-2002 .
Un grupo contiguo de dígitos binarios se denomina comúnmente cadena de bits , vector de bits o matriz de bits unidimensional (o multidimensional) . Un grupo de ocho dígitos binarios se denomina un byte , pero históricamente el tamaño del byte no está estrictamente definido. Con frecuencia, las palabras medias, completas, dobles y cuádruples constan de un número de bytes que es una potencia baja de dos.
En la teoría de la información , un bit es la entropía de información de una variable aleatoria binaria que es 0 o 1 con igual probabilidad, [2] o la información que se obtiene cuando se conoce el valor de dicha variable. [3] [4] Como unidad de información , el bit también se conoce como shannon , [5] llamado así por Claude E. Shannon .
Historia
La codificación de datos por bits discretos se utilizó en las tarjetas perforadas inventadas por Basile Bouchon y Jean-Baptiste Falcon (1732), desarrolladas por Joseph Marie Jacquard (1804), y posteriormente adoptadas por Semyon Korsakov , Charles Babbage , Hermann Hollerith y principios fabricantes de computadoras como IBM . Una variante de esa idea fue la cinta de papel perforada . En todos esos sistemas, el medio (tarjeta o cinta) portaba conceptualmente una serie de posiciones de los orificios; cada posición podría ser perforada o no, llevando así un bit de información. La codificación de texto por bits también se utilizó en el código Morse (1844) y en las primeras máquinas de comunicaciones digitales, como los teletipos y las máquinas de cotizaciones (1870).
Ralph Hartley sugirió el uso de una medida logarítmica de información en 1928. [6] Claude E. Shannon utilizó por primera vez la palabra "bit" en su artículo seminal de 1948 " A Mathematical Theory of Communication ". [7] [8] [9] Atribuyó su origen a John W. Tukey , quien había escrito un memo de Bell Labs el 9 de enero de 1947 en el que contraía "dígito de información binaria" a simplemente "bit". [7] Vannevar Bush había escrito en 1936 sobre "bits de información" que podían almacenarse en las tarjetas perforadas utilizadas en las computadoras mecánicas de esa época. [10] La primera computadora programable, construida por Konrad Zuse , usó notación binaria para los números.
Representacion fisica
Un bit puede ser almacenado por un dispositivo digital u otro sistema físico que exista en cualquiera de los dos posibles estados distintos . Estos pueden ser los dos estados estables de un flip-flop, dos posiciones de un interruptor eléctrico , dos niveles distintos de voltaje o corriente permitidos por un circuito , dos niveles distintos de intensidad de luz , dos direcciones de magnetización o polarización , la orientación del doble reversible ADN trenzado , etc.
Los bits se pueden implementar de varias formas. En la mayoría de los dispositivos informáticos modernos, un bit se suele representar mediante un voltaje eléctrico o un pulso de corriente , o por el estado eléctrico de un circuito flip-flop.
Para dispositivos que usan lógica positiva , un valor de dígito de 1 (o un valor lógico de verdadero) se representa con un voltaje más positivo en relación con la representación de 0. Los voltajes específicos son diferentes para diferentes familias lógicas y se permiten variaciones para permitir componentes. inmunidad al envejecimiento y al ruido. Por ejemplo, en la lógica de transistor-transistor (TTL) y circuitos compatibles, los valores de dígitos 0 y 1 en la salida de un dispositivo están representados por no más de 0,4 voltios y no menos de 2,6 voltios, respectivamente; mientras que las entradas TTL están especificadas para reconocer 0,8 voltios o menos como 0 y 2,2 voltios o más como 1.
Transmisión y procesamiento
Los bits se transmiten de uno en uno en transmisión en serie y por un número múltiple de bits en transmisión en paralelo . Una operación bit a bit procesa opcionalmente bits de uno en uno. Las velocidades de transferencia de datos se miden generalmente en múltiplos SI decimales de la unidad de bit por segundo (bit / s), como kbit / s.
Almacenamiento
En los primeros dispositivos de procesamiento de información no electrónicos, como el telar de Jacquard o el motor analítico de Babbage , a menudo se almacenaba un bit como la posición de una palanca o engranaje mecánico, o la presencia o ausencia de un agujero en un punto específico de una tarjeta de papel. o cinta . Los primeros dispositivos eléctricos para lógica discreta (como los circuitos de control de ascensores y semáforos , interruptores telefónicos y la computadora de Konrad Zuse) representaban bits como estados de relés eléctricos que podían ser "abiertos" o "cerrados". Cuando los relés fueron reemplazados por tubos de vacío , a partir de la década de 1940, los constructores de computadoras experimentaron con una variedad de métodos de almacenamiento, como pulsos de presión que viajan por una línea de retardo de mercurio , cargas almacenadas en la superficie interior de un tubo de rayos catódicos o puntos opacos. impreso en discos de vidrio mediante técnicas fotolitográficas .
En las décadas de 1950 y 1960, estos métodos fueron reemplazados en gran medida por dispositivos de almacenamiento magnético como la memoria de núcleo magnético , cintas magnéticas , tambores y discos , donde un bit estaba representado por la polaridad de magnetización de un área determinada de una película ferromagnética , o por un cambio de polaridad de una dirección a la otra. El mismo principio se usó más tarde en la memoria de burbuja magnética desarrollada en la década de 1980, y todavía se encuentra en varios elementos de banda magnética , como boletos de metro y algunas tarjetas de crédito .
En la memoria de semiconductores moderna , como la memoria dinámica de acceso aleatorio , los dos valores de un bit pueden estar representados por dos niveles de carga eléctrica almacenados en un condensador . En ciertos tipos de matrices lógicas programables y memoria de solo lectura , un bit puede estar representado por la presencia o ausencia de una ruta conductora en un punto determinado de un circuito. En los discos ópticos , un bit se codifica como la presencia o ausencia de un pozo microscópico en una superficie reflectante. En los códigos de barras unidimensionales , los bits se codifican como el grosor de líneas alternas en blanco y negro.
Unidad y símbolo
El bit no está definido en el Sistema Internacional de Unidades (SI). Sin embargo, la Comisión Electrotécnica Internacional emitió la norma IEC 60027 , que especifica que el símbolo del dígito binario debe ser bit , y esto debe usarse en todos los múltiplos, como kbit , para kilobit. [11] Sin embargo, la letra b minúscula también se usa ampliamente y fue recomendada por el estándar IEEE 1541 (2002) . Por el contrario, la letra mayúscula B es el símbolo estándar y habitual del byte.
Múltiplos de bits v t mi | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
|
| |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
|
Múltiples bits
Se pueden expresar y representar múltiples bits de varias formas. Para la conveniencia de representar grupos de bits que se repiten habitualmente en la tecnología de la información , tradicionalmente se han utilizado varias unidades de información . El más común es el byte unitario , acuñado por Werner Buchholz en junio de 1956, que históricamente se utilizó para representar el grupo de bits utilizados para codificar un solo carácter de texto (hasta que la codificación multibyte UTF-8 asumió el control) en una computadora [12] [13] [14] [15] [16] y por esta razón se usó como el elemento básico direccionable en muchas arquitecturas de computadora . La tendencia en el diseño de hardware convergió en la implementación más común de usar ocho bits por byte, como se usa ampliamente en la actualidad. Sin embargo, debido a la ambigüedad de depender del diseño de hardware subyacente, el octeto unitario se definió para denotar explícitamente una secuencia de ocho bits.
Las computadoras generalmente manipulan bits en grupos de un tamaño fijo, llamados convencionalmente " palabras ". Al igual que el byte, el número de bits en una palabra también varía con el diseño del hardware y suele estar entre 8 y 80 bits, o incluso más en algunas computadoras especializadas. En el siglo XXI, las computadoras personales o de servidor minoristas tienen un tamaño de palabra de 32 o 64 bits.
El Sistema Internacional de Unidades define una serie de prefijos decimales para múltiplos de unidades estandarizadas que comúnmente también se usan con el bit y el byte. Los prefijos kilo (10 3 ) a yotta (10 24 ) se incrementan en múltiplos de 1000, y las unidades correspondientes son el kilobit (kbit) al yottabit (Ybit).
Capacidad de información y compresión de información
Cuando la capacidad de información de un sistema de almacenamiento o un canal de comunicación se presenta en bits o bits por segundo , esto a menudo se refiere a dígitos binarios, que es la capacidad del hardware de una computadora para almacenar datos binarios (0 o 1, arriba o abajo, actual o no). , etc.). [17] La capacidad de información de un sistema de almacenamiento es solo un límite superior a la cantidad de información almacenada en él. Si los dos valores posibles de un bit de almacenamiento no son igualmente probables, ese bit de almacenamiento contiene menos de un bit de información. Si el valor es completamente predecible, entonces la lectura de ese valor no proporciona ninguna información (bits entrópicos cero, porque no se produce una resolución de la incertidumbre y, por lo tanto, no hay información disponible). Si un archivo de computadora que usa n bits de almacenamiento contiene solo m < n bits de información, entonces esa información puede, en principio, codificarse en alrededor de m bits, al menos en promedio. Este principio es la base de la tecnología de compresión de datos . Utilizando una analogía, los dígitos binarios del hardware se refieren a la cantidad de espacio de almacenamiento disponible (como la cantidad de cubos disponibles para almacenar cosas) y la información que contiene el llenado, que viene en diferentes niveles de granularidad (fino o grueso, es decir, información comprimida o sin comprimir). Cuando la granularidad es más fina, cuando la información está más comprimida, el mismo depósito puede contener más.
Por ejemplo, se estima que la capacidad tecnológica combinada del mundo para almacenar información proporciona 1.300 exabytes de dígitos de hardware. Sin embargo, cuando este espacio de almacenamiento se llena y el contenido correspondiente se comprime de manera óptima, esto solo representa 295 exabytes de información. [18] Cuando se comprime de manera óptima, la capacidad de carga resultante se aproxima a la información de Shannon o la entropía de información . [17]
Computación basada en bits
Ciertas instrucciones del procesador de computadora bit a bit (como el conjunto de bits ) operan al nivel de la manipulación de bits en lugar de manipular datos interpretados como un agregado de bits.
En la década de 1980, cuando las pantallas de computadora con mapas de bits se hicieron populares, algunas computadoras proporcionaron instrucciones de transferencia de bloques de bits especializadas para establecer o copiar los bits que correspondían a un área rectangular determinada en la pantalla.
En la mayoría de las computadoras y lenguajes de programación, cuando se hace referencia a un bit dentro de un grupo de bits, como un byte o una palabra, generalmente se especifica mediante un número de 0 en adelante correspondiente a su posición dentro del byte o palabra. Sin embargo, 0 puede hacer referencia a la mayor parte o bit menos significativo dependiendo del contexto.
Otras unidades de información
Similar al par y la energía en física; La información teórica de la información y el tamaño del almacenamiento de datos tienen la misma dimensionalidad de las unidades de medida , pero en general no tiene sentido sumar, restar o combinar las unidades matemáticamente.
Otras unidades de información, a veces utilizadas en la teoría de la información, incluyen el dígito natural también llamado nat o nit y definido como log 2 e (≈ 1,443) bits, donde e es la base de los logaritmos naturales ; y el dit , ban o hartley , definido como log 2 10 (≈ 3,322) bits. [6] Este valor, ligeramente menor que 10/3, puede entenderse porque 10 3 = 1000 ≈ 1024 = 2 10 : tres dígitos decimales son un poco menos de información que diez dígitos binarios, por lo que un dígito decimal es un poco menos que 10/3 dígitos binarios. Por el contrario, un bit de información corresponde a aproximadamente ln 2 (≈ 0,693) nats, o log 10 2 (≈ 0,301) hartleys. Al igual que con la relación inversa, este valor, aproximadamente 3/10, pero un poco más, corresponde al hecho de que 2 10 = 1024 ~ 1000 = 10 3 : diez dígitos binarios son un poco más información que tres dígitos decimales, por lo que un dígito binario es un poco más de 3/10 dígitos decimales. Algunos autores también definen un binit como una unidad de información arbitraria equivalente a un número fijo pero no especificado de bits. [19]
Ver también
- Byte
- Entero (ciencias de la computación)
- Tipo de datos primitivo
- Trit (dígito trinario)
- Qubit (bit cuántico)
- Bitstream
- Entropía (teoría de la información)
- Tasa de baudios (bits por segundo)
- Sistema de numeración binaria
- Sistema de numeración ternario
- Shannon (unidad)
Referencias
- ^ Mackenzie, Charles E. (1980). Juegos de caracteres codificados, historia y desarrollo . Serie de programación de sistemas (1 ed.). Addison-Wesley Publishing Company, Inc. pág. X. ISBN 978-0-201-14460-4. LCCN 77-90165 . Archivado desde el original el 18 de noviembre de 2016 . Consultado el 22 de mayo de 2016 . [1]
- ^ Anderson, John B .; Johnnesson, Rolf (2006), Comprensión de la transmisión de información
- ^ Haykin, Simon (2006), Comunicaciones digitales
- ^ Norma IEEE 260.1-2004
- ^ "Unidades: B" . Archivado desde el original el 4 de mayo de 2016.
- ^ a b Abramson, Norman (1963). Teoría y codificación de la información . McGraw-Hill .
- ^ a b Shannon, Claude Elwood (julio de 1948). "Una teoría matemática de la comunicación" (PDF) . Revista técnica de Bell System . 27 (3): 379–423. doi : 10.1002 / j.1538-7305.1948.tb01338.x . hdl : 11858 / 00-001M-0000-002C-4314-2 . Archivado desde el original (PDF) el 15 de julio de 1998.
La elección de una base logarítmica corresponde a la elección de una unidad para medir la información. Si se usa la base 2, las unidades resultantes pueden llamarse dígitos binarios, o más brevemente bits , una palabra sugerida por JW Tukey .
- ^ Shannon, Claude Elwood (octubre de 1948). "Una teoría matemática de la comunicación". Revista técnica de Bell System . 27 (4): 623–666. doi : 10.1002 / j.1538-7305.1948.tb00917.x . hdl : 11858 / 00-001M-0000-002C-4314-2 .
- ^ Shannon, Claude Elwood ; Weaver, Warren (1949). Una teoría matemática de la comunicación (PDF) . Prensa de la Universidad de Illinois . ISBN 0-252-72548-4. Archivado desde el original (PDF) el 15 de julio de 1998.
- ^ Bush, Vannevar (1936). "Análisis instrumental" . Boletín de la American Mathematical Society . 42 (10): 649–669. doi : 10.1090 / S0002-9904-1936-06390-1 . Archivado desde el original el 6 de octubre de 2014.
- ^ Instituto Nacional de Estándares y Tecnología (2008), Guía para el uso del sistema internacional de unidades . Versión en línea. Archivado el 3 de junio de 2016 en la Wayback Machine.
- ^ Bemer, Robert William (8 de agosto de 2000). "¿Por qué un byte es de 8 bits? ¿O no?" . Viñetas de la historia de la computadora . Archivado desde el original el 3 de abril de 2017 . Consultado el 3 de abril de 2017 .
[...] Con IBM 's TRAMO informáticos como fondo, el manejo de las palabras de 64 caracteres puede dividir en grupos de 8 (he diseñado el juego de caracteres para que, bajo la dirección del Dr. Werner Buchholz , el hombre que acuñó el término ' byte ' para una agrupación de 8 bits). […] El IBM 360 utilizó caracteres de 8 bits, aunque no ASCII directamente. Por lo tanto, el "byte" de Buchholz prendió en todas partes. A mí mismo no me gustó el nombre por muchas razones. […]
- ^ Buchholz, Werner (11 de junio de 1956). "7. La matriz de cambios" (PDF) . El sistema de enlaces . IBM . págs. 5-6. Stretch Memo No. 39G. Archivado (PDF) desde el original el 4 de abril de 2017 . Consultado el 4 de abril de 2016 .
[…] Lo más importante, desde el punto de vista de la edición, será la capacidad de manejar cualquier carácter o dígito, de 1 a 6 bits de longitud […] la Matriz Shift que se utilizará para convertir una palabra de 60 bits , procedente de Memoria en paralelo, en caracteres , o " bytes " como los hemos llamado, para ser enviados al Adder en serie. Los 60 bits se vierten en núcleos magnéticos en seis niveles diferentes. Por lo tanto, si un 1 sale de la posición 9, aparece en los seis núcleos de abajo. […] El sumador puede aceptar todos o solo algunos de los bits. […] Suponga que se desea operar con dígitos decimales de 4 bits , comenzando por la derecha. La diagonal 0 se pulsa primero, enviando los seis bits 0 a 5, de los cuales el sumador acepta solo los primeros cuatro (0-3). Los bits 4 y 5 se ignoran. A continuación, se pulsa la diagonal 4. Esto envía los bits 4 a 9, de los cuales los dos últimos se ignoran nuevamente, y así sucesivamente. […] Es igual de fácil usar los seis bits en un trabajo alfanumérico , o manejar bytes de un solo bit para análisis lógico, o compensar los bytes por cualquier número de bits. […]
- ^ Buchholz, Werner (febrero de 1977). "La palabra" Byte "llega a la mayoría de edad ..." Revista Byte . 2 (2): 144.
[…] La primera referencia encontrada en los archivos estaba contenida en un memorando interno escrito en junio de 1956 durante los primeros días del desarrollo de Stretch . Se describió que un byte constaba de cualquier número de bits en paralelo del uno al seis. Por tanto, se supuso que un byte tenía una longitud apropiada para la ocasión. Su primer uso fue en el contexto del equipo de entrada y salida de la década de 1950, que manejaba seis bits a la vez. La posibilidad de pasar a bytes de 8 bits se consideró en agosto de 1956 y se incorporó al diseño de Stretch poco después. La primera referencia publicada al término se produjo en 1959 en un artículo "Processing Data in Bits and Pieces" de G A Blaauw , F P Brooks Jr y W Buchholz en IRE Transactions on Electronic Computers , junio de 1959, página 121. Las nociones de ese artículo fueron elaborados en el Capítulo 4 de Planificación de un sistema informático (Project Stretch) , editado por W Buchholz, McGraw-Hill Book Company (1962). El fundamento para acuñar el término se explicó allí en la página 40 de la siguiente manera:
Byte denota un grupo de bits utilizados para codificar un carácter, o el número de bits transmitidos en paralelo hacia y desde unidades de entrada-salida. Aquí se utiliza un término que no sea carácter porque un carácter dado puede estar representado en diferentes aplicaciones por más de un código, y diferentes códigos pueden usar diferentes números de bits (es decir, diferentes tamaños de bytes). En la transmisión de entrada-salida, la agrupación de bits puede ser completamente arbitraria y no tener relación con los caracteres reales. (El término se acuñó a partir de mordida , pero se repelió para evitar la mutación accidental a bit .)
System / 360 se hizo cargo de muchos de los conceptos de Stretch, incluidos los tamaños básicos de bytes y palabras, que son potencias de 2. Sin embargo, para economía, el byte el tamaño se fijó en el máximo de 8 bits y el direccionamiento a nivel de bit se reemplazó por direccionamiento de bytes. […] - ^ Blaauw, Gerrit Anne ; Brooks, Jr., Frederick Phillips ; Buchholz, Werner (1962), "Capítulo 4: Unidades de datos naturales" (PDF) , en Buchholz, Werner (ed.), Planning a Computer System - Project Stretch , McGraw-Hill Book Company, Inc. / The Maple Press Company, York, PA., Págs. 39–40, LCCN 61-10466 , archivado desde el original (PDF) el 2017-04-03 , consultado el 2017-04-03
- ^ Bemer, Robert William (1959). "Una propuesta para un código de tarjeta generalizado de 256 caracteres". Comunicaciones de la ACM . 2 (9): 19-23. doi : 10.1145 / 368424.368435 . S2CID 36115735 .
- ^ a b Información en pequeños bits Information in Small Bits es un libro producido como parte de un proyecto de divulgación sin fines de lucro de la IEEE Information Theory Society. El libro presenta a Claude Shannon y los conceptos básicos de la teoría de la información a niños de 8 años en adelante utilizando historias de dibujos animados identificables y actividades de resolución de problemas.
- ^ "La capacidad tecnológica del mundo para almacenar, comunicar y computar información" Archivado el 27 de julio de 2013 en la Wayback Machine , especialmente el material en línea de apoyo Archivado el 31 de mayo de 2011en la Wayback Machine , Martin Hilbert y Priscila López (2011), Science , 332 (6025), 60-65; acceso gratuito al artículo a través de aquí: martinhilbert.net/WorldInfoCapacity.html
- ^ Bhattacharya, Amitabha (2005). Comunicación digital . Educación de Tata McGraw-Hill . ISBN 978-0-07059117-2. Archivado desde el original el 27 de marzo de 2017.
enlaces externos
- Bit Calculator : una herramienta que proporciona conversiones entre bit, byte, kilobit, kilobyte, megabit, megabyte, gigabit, gigabyte
- BitXByteConverter : una herramienta para calcular el tamaño de los archivos, la capacidad de almacenamiento y la información digital en varias unidades