Byte


El byte es una unidad de información digital que normalmente consta de ocho bits . Históricamente, el byte era la cantidad de bits utilizados para codificar un solo carácter de texto en una computadora [1] [2] y, por esta razón, es la unidad de memoria direccionable más pequeña en muchas arquitecturas de computadora . Para eliminar la ambigüedad de los bytes de tamaño arbitrario de la definición común de 8 bits , los documentos de protocolo de red como el Protocolo de Internet ( RFC 791 ) se refieren a un byte de 8 bits como un octeto . [3] Esos bits en un octeto generalmente se cuentan con una numeración de 0 a 7 o de 7 a 0 dependiendo del bit endian . El primer bit es el número 0, lo que hace que el octavo bit sea el número 7.

Históricamente, el tamaño del byte ha dependido del hardware y no existían estándares definitivos que exigieran el tamaño. Se han utilizado tamaños de 1 a 48 bits. [4] [5] [6] [7] El código de caracteres de seis bits era una implementación de uso frecuente en los primeros sistemas de codificación, y las computadoras que usaban bytes de seis y nueve bits eran comunes en la década de 1960. Estos sistemas a menudo tenían palabras de memoria de 12, 18, 24, 30, 36, 48 o 60 bits, correspondientes a 2, 3, 4, 5, 6, 8 o 10 bytes de seis bits. En esta era, las agrupaciones de bits en el flujo de instrucciones a menudo se denominaban sílabas [a] o slab , antes de que el término byte se volviera común.

El estándar moderno de facto de ocho bits, como se documenta en ISO/IEC 2382-1:1993, es una conveniente potencia de dos que permite los valores codificados en binario de 0 a 255 para un byte: 2 elevado a 8 es 256. [ 8] La norma internacional IEC 80000-13 codificó este significado común. Muchos tipos de aplicaciones usan información representable en ocho o menos bits y los diseñadores de procesadores normalmente optimizan para este uso. La popularidad de las principales arquitecturas informáticas comerciales ha contribuido a la aceptación generalizada del byte de 8 bits. [9] Las arquitecturas modernas suelen utilizar palabras de 32 o 64 bits, construidas con cuatro u ocho bytes, respectivamente.

El símbolo de unidad para el byte fue designado como la letra B mayúscula por la Comisión Electrotécnica Internacional (IEC) y el Instituto de Ingenieros Eléctricos y Electrónicos (IEEE). [10] Internacionalmente, la unidad de octeto , símbolo o, define explícitamente una secuencia de ocho bits, eliminando la posible ambigüedad del término "byte". [11] [12]

El término byte fue acuñado por Werner Buchholz en junio de 1956, [4] [13] [14] [b] durante la primera fase de diseño de IBM Stretch [15] [16] [1] [13] [14] [17 ] [18] computadora, que tenía direccionamiento al bit e instrucciones de longitud de campo variable (VFL) con un tamaño de byte codificado en la instrucción. [13] Es una deletreada deliberada de mordida para evitar una mutación accidental a mordida . [1] [13] [19] [c]

Otro origen de byte para grupos de bits más pequeños que el tamaño de palabra de una computadora, y en particular grupos de cuatro bits , está registrado por Louis G. Dooley, quien afirmó haber acuñado el término mientras trabajaba con Jules Schwartz y Dick Beeler en un sistema de defensa aérea. llamado SAGE en MIT Lincoln Laboratory en 1956 o 1957, que fue desarrollado conjuntamente por Rand , MIT e IBM. [20] [21] Más tarde, el lenguaje JOVIAL de Schwartz en realidad usó el término, pero el autor recordó vagamente que se derivaba de AN/FSQ-31 . [22] [21]


La diferencia porcentual entre las interpretaciones decimales y binarias de los prefijos de unidades crece con el aumento del tamaño de almacenamiento