Byte


El byte es una unidad de información digital que normalmente consta de ocho bits . Históricamente, el byte era la cantidad de bits utilizados para codificar un solo carácter de texto en una computadora [1] [2] y, por esta razón, es la unidad de memoria direccionable más pequeña en muchas arquitecturas de computadora . Para eliminar la ambigüedad de los bytes de tamaño arbitrario de la definición común de 8 bits , los documentos de protocolo de red como el Protocolo de Internet ( RFC 791 ) se refieren a un byte de 8 bits como un octeto . [3] Esos bits en un octeto generalmente se cuentan con una numeración de 0 a 7 o de 7 a 0, dependiendo de la endianidad del bit . El primer bit es el número 0, lo que hace que el octavo sea el número 7.

El tamaño del byte ha dependido históricamente del hardware y no existían estándares definitivos que exigieran el tamaño. Se han utilizado tamaños de 1 a 48 bits. [4] [5] [6] [7] El código de caracteres de seis bits era una implementación de uso frecuente en los primeros sistemas de codificación, y las computadoras que usaban bytes de seis y nueve bits eran comunes en la década de 1960. Estos sistemas a menudo tenían palabras de memoria de 12, 18, 24, 30, 36, 48 o 60 bits, correspondientes a 2, 3, 4, 5, 6, 8 o 10 bytes de seis bits. En esta era, las agrupaciones de bits en el flujo de instrucciones a menudo se denominaban sílabas [a] o slab , antes de que el término byte se volviera común.

El estándar moderno de facto de ocho bits, como se documenta en ISO / IEC 2382-1: 1993, es una potencia conveniente de dos que permite los valores codificados en binario de 0 a 255 para un byte; 2 elevado a 8 es 256. [8 ] La norma internacional IEC 80000-13 codificó este significado común. Muchos tipos de aplicaciones utilizan información representable en ocho bits o menos y los diseñadores de procesadores normalmente optimizan para este uso. La popularidad de las principales arquitecturas informáticas comerciales ha contribuido a la aceptación omnipresente del byte de 8 bits. [9] Las arquitecturas modernas suelen utilizar palabras de 32 o 64 bits, compuestas de cuatro u ocho bytes, respectivamente.

El símbolo de unidad para el byte fue designado como letra mayúscula B por la Comisión Electrotécnica Internacional (IEC) y el Instituto de Ingenieros Eléctricos y Electrónicos (IEEE). [10] A nivel internacional, el octeto unitario , símbolo o, define explícitamente una secuencia de ocho bits, eliminando la posible ambigüedad del término "byte". [11] [12]

El término byte fue acuñado por Werner Buchholz en junio de 1956, [4] [13] [14] [b] durante la fase de diseño inicial del IBM Stretch [15] [16] [1] [13] [14] [17 ] [18] computadora, que tenía direccionamiento al bit y a instrucciones de longitud de campo variable (VFL) con un tamaño de byte codificado en la instrucción. [13] Es un respeto deliberado de la mordida para evitar una mutación accidental a la mordida . [1] [13] [19] [c]

Otro origen de byte para grupos de bits más pequeños que el tamaño de palabra de una computadora, y en particular grupos de cuatro bits , está registrado por Louis G. Dooley, quien afirmó que acuñó el término mientras trabajaba con Jules Schwartz y Dick Beeler en un sistema de defensa aérea. llamado SAGE en el Laboratorio Lincoln del MIT en 1956 o 1957, que fue desarrollado conjuntamente por Rand , MIT e IBM. [20] [21] Más tarde, el lenguaje JOVIAL de Schwartz usó el término, pero el autor recordó vagamente que se derivaba de AN / FSQ-31 . [22] [21]


La diferencia porcentual entre las interpretaciones decimales y binarias de los prefijos de unidad aumenta con el aumento del tamaño de almacenamiento