La longitud o el ancho de bits es el número de dígitos binarios, llamados bits , necesarios para representar un entero [1] como un número binario . Formalmente, la longitud en bits de un número naturales una función, bitLength ( n ), del logaritmo binario de n :
Por tanto, la longitud en bits del número 0 es 1 y la longitud en bits de 100 es 7.
En su nivel más fundamental, las computadoras digitales y los dispositivos de telecomunicaciones (a diferencia de los dispositivos analógicos ) procesan datos codificados en formato binario . El formato binario expresa los datos como una serie de valores de longitud arbitraria con una de dos opciones: Sí / No, 1/0, Verdadero / Falso, etc., todos los cuales pueden expresarse electrónicamente como Encendido / Apagado. Para las aplicaciones de tecnología de la información, la cantidad de información que se procesa es una consideración de diseño importante. El término longitud de bits es una abreviatura técnica de esta medida.
Por ejemplo, los procesadores de computadora a menudo están diseñados para procesar datos agrupados en palabras de una longitud determinada de bits (8 bits, 16 bits, 32 bits, 64 bits, etc.). La longitud de bits de cada palabra define, en primer lugar, cuántas ubicaciones de memoria pueden ser direccionadas independientemente por el procesador. En la criptografía de clave pública , las claves se definen por su longitud expresada en dígitos binarios: su longitud en bits.
Referencias
- ^ "Documentación de Wolfram Mathematica 8" . Consultado el 10 de enero de 2012 . CS1 maint: parámetro desalentado ( enlace )