En matemáticas aplicadas , un número se normaliza cuando se escribe en notación científica con un dígito decimal distinto de cero antes del punto decimal. [1] Por lo tanto, un número real , cuando se escribe en notación científica normalizada, es el siguiente:
donde n es un número entero ,son los dígitos del número en base 10, yno es cero. Es decir, su dígito inicial (es decir, el más a la izquierda) no es cero y está seguido por el punto decimal. Simplemente hablando, un número se normaliza cuando se escribe en forma de a × 10 n donde 1 ≤ a <10 sin ceros a la izquierda en a . Ésta es la forma estándar de notación científica . Un estilo alternativo es tener el primer dígito distinto de cero después del punto decimal.
Ejemplos de
Como ejemplos, el número 918.082 en forma normalizada es
mientras que el numero −0.005 740 12 en forma normalizada es
Claramente, cualquier número real distinto de cero se puede normalizar.
Otras bases
La misma definición es válida si el número está representado en otra base (es decir, base de enumeración), en lugar de base 10.
En base b, un número normalizado tendrá la forma
donde de nuevo y los dígitos, son enteros entre y .
En muchos sistemas informáticos, los números binarios de coma flotante se representan internamente utilizando esta forma normalizada para sus representaciones; para obtener más detalles, consulte el número normal (computación) . Aunque el punto se describe como flotante , para un número de punto flotante normalizado, su posición es fija, reflejándose el movimiento en los diferentes valores de la potencia.
Ver también
Referencias
- ^ Fleisch, Daniel; Kregenow, Julia (2013), A Student's Guide to the Mathematics of Astronomy , Cambridge University Press, pág. 35, ISBN 9781107292550.