Un formato de número de computadora es la representación interna de valores numéricos en hardware y software de dispositivos digitales, como en computadoras y calculadoras programables . [1] Los valores numéricos se almacenan como agrupaciones de bits , como bytes y palabras. La codificación entre valores numéricos y patrones de bits se elige por conveniencia del funcionamiento de la computadora; [ cita requerida ]la codificación utilizada por el conjunto de instrucciones de la computadora generalmente requiere conversión para uso externo, como para impresión y visualización. Los diferentes tipos de procesadores pueden tener diferentes representaciones internas de valores numéricos y se utilizan diferentes convenciones para números enteros y reales. La mayoría de los cálculos se realizan con formatos numéricos que encajan en un registro de procesador, pero algunos sistemas de software permiten la representación de números arbitrariamente grandes utilizando varias palabras de memoria.
Representación de números binarios
Las computadoras representan datos en conjuntos de dígitos binarios. La representación está compuesta por bits, que a su vez se agrupan en conjuntos más grandes, como bytes.
Cadena binaria | Valor octal |
---|---|
000 | 0 |
001 | 1 |
010 | 2 |
011 | 3 |
100 | 4 |
101 | 5 |
110 | 6 |
111 | 7 |
Longitud de la cadena de bits (b) | Número de valores posibles (N) |
---|---|
1 | 2 |
2 | 4 |
3 | 8 |
4 | dieciséis |
5 | 32 |
6 | 64 |
7 | 128 |
8 | 256 |
9 | 512 |
10 | 1024 |
... | |
Un bit es un dígito binario que representa uno de dos estados . El concepto de bit puede entenderse como un valor de 1 o 0 , encendido o apagado , sí o no , verdadero o falso , o codificado por un interruptor o palanca de algún tipo.
Si bien un solo bit, por sí solo, puede representar solo dos valores, se puede usar una cadena de bits para representar valores más grandes. Por ejemplo, una cadena de tres bits puede representar hasta ocho valores distintos, como se ilustra en la Tabla 1.
A medida que aumenta el número de bits que componen una cadena, el número de posibles combinaciones 0 y 1 aumenta exponencialmente . Un solo bit permite solo dos combinaciones de valores, dos bits combinados pueden hacer cuatro valores separados, tres bits para ocho, y así sucesivamente, aumentando con la fórmula 2 ^ n. La cantidad de combinaciones posibles se duplica con cada dígito binario agregado como se ilustra en la Tabla 2.
Las agrupaciones con un número específico de bits se utilizan para representar diferentes cosas y tienen nombres específicos.
Un byte es una cadena de bits que contiene el número de bits necesarios para representar un carácter . En la mayoría de las computadoras modernas, esta es una cadena de ocho bits. Debido a que la definición de un byte está relacionada con la cantidad de bits que componen un carácter, algunas computadoras más antiguas han usado una longitud de bits diferente para su byte. [2] En muchas arquitecturas de computadora , el byte es la unidad direccionable más pequeña , digamos, el átomo de direccionabilidad. Por ejemplo, aunque los procesadores de 64 bits pueden direccionar la memoria sesenta y cuatro bits a la vez, aún pueden dividir esa memoria en partes de ocho bits. Esto se denomina memoria direccionable por bytes. Históricamente, muchas CPU leen datos en múltiplos de ocho bits. [3] Debido a que el tamaño de octeto de ocho bits es tan común, pero la definición no está estandarizada, el término octeto se usa a veces para describir explícitamente una secuencia de ocho bits.
Un nibble (a veces nybble ) es un número compuesto por cuatro bits. [4] Al ser de medio byte , el nibble se denominó como un juego de palabras. Una persona puede necesitar varios bocados para un bocado de algo; de manera similar, un nybble es parte de un byte. Debido a que cuatro bits permiten dieciséis valores, un nibble a veces se conoce como dígito hexadecimal . [5]
Visualización de números octales y hexadecimales
La codificación octal y hexadecimal son formas convenientes de representar números binarios, tal como los usan las computadoras. Los ingenieros informáticos a menudo necesitan escribir cantidades binarias, pero en la práctica escribir un número binario como 1001001101010001 es tedioso y propenso a errores. Por lo tanto, las cantidades binarias se escriben en un formato de base 8, u "octal", o, mucho más comúnmente, un formato de base 16, "hexadecimal" ( hexadecimal ). En el sistema decimal, hay 10 dígitos, del 0 al 9, que se combinan para formar números. En un sistema octal, solo hay 8 dígitos, del 0 al 7. Es decir, el valor de un "10" octal es el mismo que un "8" decimal, un "20" octal es un "16" decimal, por lo que en. En un sistema hexadecimal, hay 16 dígitos, del 0 al 9 seguidos, por convención, de la A a la F. Es decir, un "10" hexadecimal es lo mismo que un "16" decimal y un "20" hexadecimal es lo mismo que un decimal "32". En el cuadro siguiente se describe un ejemplo y una comparación de números en diferentes bases.
Al escribir números, los caracteres de formato se utilizan para describir el sistema numérico, por ejemplo, 000_0000B o 0b000_00000 para números binarios y 0F8H o 0xf8 para números hexadecimales.
Conversión entre bases
Decimal | Binario | Octal | Hexadecimal |
---|---|---|---|
0 | 000000 | 00 | 00 |
1 | 000001 | 01 | 01 |
2 | 000010 | 02 | 02 |
3 | 000011 | 03 | 03 |
4 | 000100 | 04 | 04 |
5 | 000101 | 05 | 05 |
6 | 000110 | 06 | 06 |
7 | 000111 | 07 | 07 |
8 | 001000 | 10 | 08 |
9 | 001001 | 11 | 09 |
10 | 001010 | 12 | 0A |
11 | 001011 | 13 | 0B |
12 | 001100 | 14 | 0C |
13 | 001101 | 15 | 0D |
14 | 001110 | dieciséis | 0E |
15 | 001111 | 17 | 0F |
Cada uno de estos sistemas numéricos es un sistema posicional, pero mientras que los pesos decimales son potencias de 10, los pesos octales son potencias de 8 y los pesos hexadecimales son potencias de 16. Para convertir de hexadecimal u octal a decimal, para cada dígito uno multiplica el valor del dígito por el valor de su posición y luego suma los resultados. Por ejemplo:
Representar fracciones en binario
Números de coma fija
El formato de punto fijo puede resultar útil para representar fracciones en binario.
Se debe elegir el número de bits necesarios para la precisión y el rango deseados para almacenar las partes fraccionarias y enteras de un número. Por ejemplo, si se usa un formato de 32 bits, se pueden usar 16 bits para el número entero y 16 para la fracción.
El bit de ocho es seguido por el bit de cuatro, luego el bit de dos y luego el bit de uno. Los bits fraccionarios continúan el patrón establecido por los bits enteros. El siguiente bit es el bit de la mitad, luego el bit de un cuarto, luego el bit de ⅛, y así sucesivamente. Por ejemplo:
bits enteros | bits fraccionarios | ||||
---|---|---|---|---|---|
0.500 | = | 1/2 | = | 00000000 00000000.10000000 00000000 | |
1.250 | = | 1+1/4 | = | 00000000 00000001.01000000 00000000 | |
7.375 | = | 7+3/8 | = | 00000000 00000111.01100000 00000000 |
Esta forma de codificación no puede representar algunos valores en binario. Por ejemplo, la fracción 1/5, 0.2 en decimal, las aproximaciones más cercanas serían las siguientes:
13107/65536 | = | 00000000 00000000.00110011 00110011 | = | 0.1999969 ... en decimal |
13108/65536 | = | 00000000 00000000.00110011 00110100 | = | 0.2000122 ... en decimal |
Incluso si se utilizan más dígitos, una representación exacta es imposible. El número 1/3, escrito en decimal como 0.333333333 ..., continúa indefinidamente. Si se termina prematuramente, el valor no representaría 1/3 precisamente.
Números de punto flotante
Si bien los enteros con signo y sin signo se utilizan en los sistemas digitales, incluso un entero de 32 bits no es suficiente para manejar todo el rango de números que puede manejar una calculadora, y eso ni siquiera incluye fracciones. Para aproximar el mayor rango y precisión de los números reales , tenemos que abandonar los números enteros con signo y los números de coma fija y pasar a un formato de " coma flotante ".
En el sistema decimal, estamos familiarizados con los números de coma flotante de la forma ( notación científica ):
- 1.1030402 × 10 5 = 1.1030402 × 100000 = 110304.02
o, de forma más compacta:
- 1.1030402E5
lo que significa "1,1030402 por 1 seguido de 5 ceros". Tenemos un cierto valor numérico (1,1030402) conocido como " significando ", multiplicado por una potencia de 10 (E5, que significa 10 5 o 100.000), conocido como " exponente ". Si tenemos un exponente negativo, eso significa que el número se multiplica por 1, tantos lugares a la derecha del punto decimal. Por ejemplo:
- 2.3434E − 6 = 2.3434 × 10 −6 = 2.3434 × 0.000001 = 0.0000023434
La ventaja de este esquema es que al usar el exponente podemos obtener un rango de números mucho más amplio, incluso si el número de dígitos en el significado, o la "precisión numérica", es mucho menor que el rango. Se pueden definir formatos de coma flotante binarios similares para computadoras. Existe una serie de esquemas de este tipo, el más popular ha sido definido por el Instituto de Ingenieros Eléctricos y Electrónicos (IEEE). La especificación del estándar IEEE 754-2008 define un formato de punto flotante de 64 bits con:
- un exponente binario de 11 bits, utilizando el formato "exceso-1023". Exceso-1023 significa que el exponente aparece como un entero binario sin signo de 0 a 2047; restar 1023 da el valor real con signo
- un significado de 52 bits, también un número binario sin signo, que define un valor fraccionario con un "1" implícito a la izquierda
- un bit de signo, dando el signo del número.
Veamos cómo se ve este formato mostrando cómo se almacenaría tal número en 8 bytes de memoria:
byte 0 | S | x10 | x9 | x8 | x7 | x6 | x5 | x4 |
---|---|---|---|---|---|---|---|---|
byte 1 | x3 | x2 | x1 | x0 | m51 | m50 | m49 | m48 |
byte 2 | m47 | m46 | m45 | m44 | m43 | m42 | m41 | m40 |
byte 3 | m39 | m38 | m37 | m36 | m35 | m34 | m33 | m32 |
byte 4 | m31 | m30 | m29 | m28 | m27 | m26 | m25 | m24 |
byte 5 | m23 | m22 | m21 | m20 | m19 | m18 | m17 | m16 |
byte 6 | m15 | m14 | m13 | m12 | m11 | m10 | m9 | m8 |
byte 7 | m7 | m6 | m5 | m4 | m3 | m2 | m1 | m0 |
donde "S" denota el bit de signo, "x" denota un bit de exponente y "m" denota un bit de significación. Una vez que se han extraído los bits aquí, se convierten con el cálculo:
× (1 + ) × 2 - 1023
Este esquema proporciona números válidos hasta aproximadamente 15 dígitos decimales, con el siguiente rango de números:
máximo | mínimo | |
---|---|---|
positivo | 1.797693134862231E + 308 | 4.940656458412465E-324 |
negativo | -4,940656458412465E-324 | -1.797693134862231E + 308 |
La especificación también define varios valores especiales que no son números definidos y se conocen como NaN , para "No es un número". Estos son utilizados por programas para designar operaciones no válidas y similares.
Algunos programas también utilizan números de coma flotante de 32 bits. El esquema más común utiliza un significando de 23 bits con un bit de signo, más un exponente de 8 bits en formato "exceso-127", dando siete dígitos decimales válidos.
byte 0 | S | x7 | x6 | x5 | x4 | x3 | x2 | x1 |
---|---|---|---|---|---|---|---|---|
byte 1 | x0 | m22 | m21 | m20 | m19 | m18 | m17 | m16 |
byte 2 | m15 | m14 | m13 | m12 | m11 | m10 | m9 | m8 |
byte 3 | m7 | m6 | m5 | m4 | m3 | m2 | m1 | m0 |
Los bits se convierten a un valor numérico con el cálculo:
× (1 + ) × 2 - 127
lo que lleva al siguiente rango de números:
máximo | mínimo | |
---|---|---|
positivo | 3.402823E + 38 | 2.802597E-45 |
negativo | -2.802597E-45 | -3.402823E + 38 |
Estos números de punto flotante se conocen como "reales" o "flotantes" en general, pero con una serie de variaciones:
Un valor flotante de 32 bits a veces se denomina "real32" o "único", que significa "valor de punto flotante de precisión simple".
Un flotante de 64 bits a veces se denomina "real64" o "doble", que significa "valor de punto flotante de doble precisión".
La relación entre números y patrones de bits se elige por conveniencia en la manipulación por computadora; ocho bytes almacenados en la memoria de la computadora pueden representar un real de 64 bits, dos reales de 32 bits o cuatro enteros con o sin signo, o algún otro tipo de datos que quepan en ocho bytes. La única diferencia es cómo los interpreta la computadora. Si la computadora almacena cuatro enteros sin firmar y luego los vuelve a leer de la memoria como un número real de 64 bits, casi siempre sería un número real perfectamente válido, aunque serían datos basura.
Solo se puede representar un rango finito de números reales con un número dado de bits. Las operaciones aritméticas pueden desbordarse o desbordarse, produciendo un valor demasiado grande o demasiado pequeño para ser representado.
La representación tiene una precisión limitada. Por ejemplo, solo se pueden representar 15 dígitos decimales con un real de 64 bits. Si se agrega un número de punto flotante muy pequeño a uno grande, el resultado es solo el grande. El pequeño número era demasiado pequeño para aparecer incluso en 15 o 16 dígitos de resolución, y la computadora lo descarta de manera efectiva. Analizar el efecto de la precisión limitada es un problema bien estudiado. Las estimaciones de la magnitud de los errores de redondeo y los métodos para limitar su efecto en grandes cálculos son parte de cualquier gran proyecto de cálculo. El límite de precisión es diferente del límite de rango, ya que afecta al significando, no al exponente.
El significado es una fracción binaria que no necesariamente coincide perfectamente con una fracción decimal. En muchos casos, una suma de potencias recíprocas de 2 no coincide con una fracción decimal específica, y los resultados de los cálculos estarán ligeramente desviados. Por ejemplo, la fracción decimal "0.1" es equivalente a una fracción binaria que se repite infinitamente: 0.000110011 ... [6]
Números en lenguajes de programación
La programación en lenguaje ensamblador requiere que el programador realice un seguimiento de la representación de los números. Cuando el procesador no admite una operación matemática requerida, el programador debe elaborar un algoritmo y una secuencia de instrucciones adecuados para llevar a cabo la operación; en algunos microprocesadores, incluso la multiplicación de números enteros debe realizarse en el software.
Los lenguajes de programación de alto nivel como Ruby y Python ofrecen un número abstracto que puede ser de tipo expandido, como racional , bignum o complejo . Las operaciones matemáticas se llevan a cabo mediante rutinas de biblioteca proporcionadas por la implementación del lenguaje. Un símbolo matemático dado en el código fuente, por sobrecarga del operador , invocará un código objeto diferente apropiado para la representación del tipo numérico; Las operaciones matemáticas sobre cualquier número, ya sea con signo, sin signo, racional, de coma flotante, de coma fija, integral o compleja, se escriben exactamente de la misma manera.
Algunos lenguajes, como REXX y Java , proporcionan operaciones de coma flotante decimal, que proporcionan errores de redondeo de una forma diferente.
Ver también
- Aritmética de precisión arbitraria
- Decimal codificado en binario
- Sistema de numeración binaria
- Código gris
- Sistema de numeración
notas y referencias
La versión inicial de este artículo se basó en un artículo de dominio público de Vectorsite de Greg Goebel .
- ^ Jon Stokes (2007). Dentro de la máquina: una introducción ilustrada a los microprocesadores y la arquitectura de la computadora . Sin prensa de almidón. pag. 66. ISBN 978-1-59327-104-6.
- ^ "definición de bytes" . Consultado el 24 de abril de 2012 .
- ^ "Microprocesador y CPU (Unidad Central de Procesamiento)" . Diccionario de red. Archivado desde el original el 3 de octubre de 2017 . Consultado el 1 de mayo de 2012 .
- ^ "definición de nybble" . Consultado el 3 de mayo de 2012 .
- ^ "Nybble" . TechTerms.com . Consultado el 3 de mayo de 2012 .
- ^ Goebel, Greg. "Formato de numeración de computadora" . Consultado el 10 de septiembre de 2012 .