La electrónica digital es un campo de la electrónica que implica el estudio de señales digitales y la ingeniería de dispositivos que las utilizan o producen. Esto contrasta con la electrónica analógica y las señales analógicas .
Los circuitos electrónicos digitales suelen estar hechos de grandes conjuntos de puertas lógicas , a menudo empaquetados en circuitos integrados . Los dispositivos complejos pueden tener representaciones electrónicas simples de funciones lógicas booleanas . [1]
Historia
El sistema de números binarios fue refinado por Gottfried Wilhelm Leibniz (publicado en 1705) y también estableció que al usar el sistema binario, los principios de la aritmética y la lógica podrían unirse. La lógica digital tal como la conocemos fue la creación de George Boole a mediados del siglo XIX. En una carta de 1886, Charles Sanders Peirce describió cómo los circuitos eléctricos de conmutación podían realizar operaciones lógicas. [2] Finalmente, los tubos de vacío reemplazaron los relés para las operaciones lógicas. La modificación de Lee De Forest , en 1907, de la válvula Fleming se puede utilizar como compuerta AND . Ludwig Wittgenstein introdujo una versión de la tabla de verdad de 16 filas como proposición 5.101 del Tractatus Logico-Philosophicus (1921). Walther Bothe , inventor del circuito de coincidencia , compartió el Premio Nobel de Física de 1954 por la primera puerta AND electrónica moderna en 1924.
Las computadoras analógicas mecánicas comenzaron a aparecer en el siglo I y luego se usaron en la era medieval para cálculos astronómicos. En la Segunda Guerra Mundial , las computadoras analógicas mecánicas se utilizaron para aplicaciones militares especializadas, como calcular el objetivo de torpedos. Durante este tiempo se desarrollaron las primeras computadoras digitales electrónicas . Originalmente eran del tamaño de una habitación grande y consumían tanta energía como varios cientos de computadoras personales (PC) modernas . [3]
El Z3 era una computadora electromecánica diseñada por Konrad Zuse . Terminada en 1941, fue la primera computadora digital totalmente automática, programable y funcional del mundo . [4] Su funcionamiento fue facilitado por la invención del tubo de vacío en 1904 por John Ambrose Fleming .
Al mismo tiempo que el cálculo digital reemplazó al analógico, los elementos de circuito puramente electrónicos pronto reemplazaron a sus equivalentes mecánicos y electromecánicos. John Bardeen y Walter Brattain inventaron el transistor de contacto puntual en Bell Labs en 1947, seguidos por William Shockley que inventó el transistor de unión bipolar en Bell Labs en 1948. [5] [6]
En la Universidad de Manchester , un equipo bajo la dirección de Tom Kilburn diseñó y construyó una máquina utilizando los transistores recientemente desarrollados en lugar de tubos de vacío. [7] Su primera computadora transistorizada y la primera en el mundo, estaba operativa en 1953 , y una segunda versión se completó allí en abril de 1955. A partir de 1955, los transistores reemplazaron los tubos de vacío en los diseños de computadora, dando lugar a la "segunda generación". de las computadoras. En comparación con los tubos de vacío, los transistores eran más pequeños, más confiables, tenían una vida útil indefinida y requerían menos energía que los tubos de vacío, por lo que emitían menos calor y permitían concentraciones mucho más densas de circuitos, hasta decenas de miles en un espacio relativamente compacto.
Mientras trabajaba en Texas Instruments en julio de 1958, Jack Kilby registró sus ideas iniciales sobre el circuito integrado (IC), luego demostró con éxito el primer trabajo integrado el 12 de septiembre de 1958. [8] El chip de Kilby estaba hecho de germanio . Al año siguiente, Robert Noyce de Fairchild Semiconductor inventó el circuito integrado de silicio . La base del IC de silicio de Noyce fue el proceso plano , desarrollado a principios de 1959 por Jean Hoerni , quien a su vez se basó en el método de pasivación de superficies de silicio de Mohamed Atalla desarrollado en 1957. [9] Esta nueva técnica, el circuito integrado, permitió Fabricación rápida y de bajo costo de circuitos complejos al tener un conjunto de circuitos electrónicos en una placa pequeña ("chip") de material semiconductor , normalmente silicio.
Revolución digital y era digital
El transistor de efecto de campo semiconductor de óxido metálico (MOSFET), también conocido como transistor MOS, fue inventado por Mohamed Atalla y Dawon Kahng en Bell Labs en 1959. [10] [11] [12] Las ventajas del MOSFET incluyen una alta escalabilidad , [13] asequibilidad, [14] bajo consumo de energía y alta densidad de transistores . [15] Su rápida velocidad de conmutación electrónica de encendido y apagado también lo hace ideal para generar trenes de pulsos , [16] la base de las señales digitales electrónicas , [17] [18] en contraste con los BJT que generan más lentamente señales analógicas que se asemejan a ondas sinusoidales . [16] Junto con la integración a gran escala de MOS (LSI), estos factores hacen del MOSFET un dispositivo de conmutación importante para circuitos digitales . [19] El MOSFET revolucionó la industria electrónica , [20] [21] y es el dispositivo semiconductor más común . [11] [22] Los MOSFET son los bloques de construcción fundamentales de la electrónica digital durante la Revolución Digital de finales del siglo XX y principios del XXI. [12] [23] [24] Esto allanó el camino para la era digital de principios del siglo XXI. [12]
En los primeros días de los circuitos integrados , cada chip se limitaba a unos pocos transistores, y el bajo grado de integración significaba que el proceso de diseño era relativamente simple. Los rendimientos de fabricación también fueron bastante bajos para los estándares actuales. La amplia adopción del transistor MOSFET a principios de la década de 1970 llevó a los primeros chips de integración a gran escala (LSI) con más de 10,000 transistores en un solo chip. [25] Tras la amplia adopción de CMOS , un tipo de lógica MOSFET, en la década de 1980, se podían colocar millones y luego miles de millones de MOSFET en un chip a medida que avanzaba la tecnología, [26] y los buenos diseños requerían una planificación minuciosa, dando lugar a nuevos métodos de diseño . El recuento de transistores tanto de los dispositivos individuales como de la producción total se elevó a niveles sin precedentes. Se ha estimado que la cantidad total de transistores producidos hasta 2018 es1,3 × 10 22 (13 sextillones ). [27]
La revolución inalámbrica , la introducción y proliferación de redes inalámbricas , comenzó en la década de 1990 y fue posible gracias a la amplia adopción de amplificadores de potencia de RF basados en MOSFET ( MOSFET de potencia y LDMOS ) y circuitos de RF ( CMOS de RF ). [28] [29] [30] Las redes inalámbricas permitieron la transmisión digital pública sin necesidad de cables, lo que condujo a la televisión digital (TV digital), GPS , radio satelital , Internet inalámbrico y teléfonos móviles durante las décadas de 1990 y 2000.
La codificación de transformada de coseno discreta (DCT), una técnica de compresión de datos propuesta por primera vez por Nasir Ahmed en 1972, [31] permitió la transmisión de medios digitales prácticos , [32] [33] [34] con formatos de compresión de imágenes como JPEG (1992), video formatos de codificación como H.26x (1988 en adelante) y MPEG (1993 en adelante), [35] estándares de codificación de audio como Dolby Digital (1991) [36] [37] y MP3 (1994), [35] y estándares de televisión digital como el vídeo a la carta (VOD) [32] y la televisión de alta definición (HDTV). [38] El video de Internet fue popularizado por YouTube , una plataforma de video en línea fundada por Chad Hurley , Jawed Karim y Steve Chen en 2005, que permitió la transmisión de video de contenido generado por el usuario MPEG-4 AVC (H.264) desde cualquier lugar del World Wide Web . [39]
Propiedades
Una ventaja de los circuitos digitales en comparación con los circuitos analógicos es que las señales representadas digitalmente se pueden transmitir sin degradación causada por el ruido . [40] Por ejemplo, una señal de audio continua transmitida como una secuencia de unos y ceros puede reconstruirse sin errores, siempre que el ruido captado en la transmisión no sea suficiente para evitar la identificación de los unos y los ceros.
En un sistema digital, se puede obtener una representación más precisa de una señal utilizando más dígitos binarios para representarla. Si bien esto requiere más circuitos digitales para procesar las señales, cada dígito es manejado por el mismo tipo de hardware, lo que resulta en un sistema fácilmente escalable . En un sistema analógico, la resolución adicional requiere mejoras fundamentales en las características de linealidad y ruido de cada paso de la cadena de señal .
Con sistemas digitales controlados por computadora, se agregarán nuevas funciones a través de la revisión del software y sin cambios de hardware. A menudo, esto se puede hacer fuera de la fábrica actualizando el software del producto. Por lo tanto, los errores de diseño del producto se pueden corregir una vez que el producto está en manos del cliente.
El almacenamiento de información puede ser más fácil en sistemas digitales que en analógicos. La inmunidad al ruido de los sistemas digitales permite que los datos se almacenen y recuperen sin degradación. En un sistema analógico, el ruido del envejecimiento y el desgaste degradan la información almacenada. En un sistema digital, siempre que el ruido total esté por debajo de cierto nivel, la información se puede recuperar perfectamente. Incluso cuando hay un ruido más significativo, el uso de la redundancia permite la recuperación de los datos originales siempre que no se produzcan demasiados errores.
En algunos casos, los circuitos digitales utilizan más energía que los circuitos analógicos para realizar las mismas tareas, por lo que producen más calor, lo que aumenta la complejidad de los circuitos, como la inclusión de disipadores de calor. En sistemas portátiles o que funcionan con baterías, esto puede limitar el uso de sistemas digitales. Por ejemplo, los teléfonos celulares que funcionan con baterías a menudo usan un front-end analógico de baja potencia para amplificar y sintonizar las señales de radio de la estación base. Sin embargo, una estación base tiene energía de red y puede usar radios de software muy flexibles pero que consumen mucha energía . Estas estaciones base se pueden reprogramar fácilmente para procesar las señales utilizadas en los nuevos estándares celulares.
Muchos sistemas digitales útiles deben traducirse de señales analógicas continuas a señales digitales discretas. Esto provoca errores de cuantificación . El error de cuantificación se puede reducir si el sistema almacena suficientes datos digitales para representar la señal con el grado de fidelidad deseado . El teorema de muestreo de Nyquist-Shannon proporciona una guía importante sobre cuántos datos digitales se necesitan para representar con precisión una señal analógica determinada.
En algunos sistemas, si una sola pieza de datos digitales se pierde o se malinterpreta, el significado de grandes bloques de datos relacionados puede cambiar por completo. Por ejemplo, un error de un solo bit en los datos de audio almacenados directamente como modulación de código de pulso lineal provoca, en el peor de los casos, un solo clic. En cambio, muchas personas usan la compresión de audio para ahorrar espacio de almacenamiento y tiempo de descarga, aunque un error de un solo bit puede causar una interrupción mayor.
Debido al efecto acantilado , a los usuarios puede resultarles difícil saber si un sistema en particular está al borde de la falla o si puede tolerar mucho más ruido antes de fallar. La fragilidad digital se puede reducir diseñando un sistema digital de robustez. Por ejemplo, se puede insertar un bit de paridad u otro método de gestión de errores en la ruta de la señal. Estos esquemas ayudan al sistema a detectar errores y luego corregirlos o solicitar la retransmisión de los datos.
Construcción
Un circuito digital se construye típicamente a partir de pequeños circuitos electrónicos llamados puertas lógicas que se pueden usar para crear lógica combinacional . Cada puerta lógica está diseñada para realizar una función de lógica booleana cuando actúa sobre señales lógicas. Una puerta lógica generalmente se crea a partir de uno o más interruptores controlados eléctricamente, generalmente transistores, pero las válvulas termoiónicas han tenido un uso histórico. La salida de una puerta lógica puede, a su vez, controlar o alimentar más puertas lógicas.
Otra forma de circuito digital se construye a partir de tablas de búsqueda (muchas se venden como " dispositivos lógicos programables ", aunque existen otros tipos de PLD). Las tablas de búsqueda pueden realizar las mismas funciones que las máquinas basadas en puertas lógicas, pero se pueden reprogramar fácilmente sin cambiar el cableado. Esto significa que un diseñador a menudo puede reparar errores de diseño sin cambiar la disposición de los cables. Por lo tanto, en productos de pequeño volumen, los dispositivos lógicos programables suelen ser la solución preferida. Por lo general, los diseñan ingenieros que utilizan software de automatización de diseño electrónico.
Los circuitos integrados constan de varios transistores en un chip de silicio y son la forma menos costosa de crear una gran cantidad de puertas lógicas interconectadas. Los circuitos integrados generalmente están interconectados en una placa de circuito impreso, que es una placa que contiene componentes eléctricos y los conecta con trazas de cobre.
Diseño
Los ingenieros utilizan muchos métodos para minimizar la redundancia lógica a fin de reducir la complejidad del circuito. La complejidad reducida reduce la cantidad de componentes y los errores potenciales y, por lo tanto, generalmente reduce los costos. La redundancia lógica se puede eliminar mediante varias técnicas bien conocidas, como los diagramas de decisión binarios , el álgebra booleana , los mapas de Karnaugh , el algoritmo de Quine-McCluskey y el método informático heurístico . Estas operaciones se realizan típicamente dentro de un sistema de diseño asistido por computadora .
Los sistemas integrados con microcontroladores y controladores lógicos programables se utilizan a menudo para implementar lógica digital para sistemas complejos que no requieren un rendimiento óptimo. Estos sistemas suelen ser programados por ingenieros de software o electricistas, utilizando lógica de escalera .
Representación
Las representaciones son cruciales para el diseño de circuitos digitales de un ingeniero. Para elegir representaciones, los ingenieros consideran los tipos de sistemas digitales.
La forma clásica de representar un circuito digital es con un conjunto equivalente de puertas lógicas . Cada símbolo lógico está representado por una forma diferente. El conjunto real de formas se introdujo en 1984 bajo el estándar IEEE / ANSI 91-1984 y ahora es de uso común por los fabricantes de circuitos integrados. [41] Otra forma es construir un sistema equivalente de interruptores electrónicos (generalmente transistores ). Esto se puede representar como una tabla de verdad .
La mayoría de los sistemas digitales se dividen en sistemas combinacionales y secuenciales . Un sistema combinacional siempre presenta la misma salida cuando se le dan las mismas entradas. Un sistema secuencial es un sistema combinacional con algunas de las salidas realimentadas como entradas. Esto hace que la máquina digital realice una secuencia de operaciones. El sistema secuencial más simple es probablemente un flip flop , un mecanismo que representa un dígito binario o " bit ". Los sistemas secuenciales a menudo se diseñan como máquinas de estado . De esta manera, los ingenieros pueden diseñar el comportamiento bruto de un sistema e incluso probarlo en una simulación, sin considerar todos los detalles de las funciones lógicas.
Los sistemas secuenciales se dividen en dos subcategorías más. Los sistemas secuenciales "síncronos" cambian de estado todos a la vez cuando una señal de reloj cambia de estado. Los sistemas secuenciales "asincrónicos" propagan los cambios siempre que cambian las entradas. Los sistemas secuenciales síncronos están hechos de circuitos asíncronos bien caracterizados, como flip-flops, que cambian solo cuando cambia el reloj y que tienen márgenes de tiempo cuidadosamente diseñados.
Para la simulación lógica , las representaciones de circuitos digitales tienen formatos de archivos digitales que pueden ser procesados por programas de computadora.
Sistemas sincrónicos
La forma habitual de implementar una máquina de estado secuencial síncrona es dividirla en una pieza de lógica combinacional y un conjunto de flip flops llamado registro de estado . El registro estatal representa el estado como un número binario. La lógica combinacional produce la representación binaria para el siguiente estado. En cada ciclo de reloj, el registro de estado captura la retroalimentación generada a partir del estado anterior de la lógica combinacional y la retroalimenta como una entrada invariable a la parte combinacional de la máquina de estado. La frecuencia de reloj está limitada por el cálculo lógico que consume más tiempo en la lógica combinacional.
Sistemas asincrónicos
La mayor parte de la lógica digital es sincrónica porque es más fácil crear y verificar un diseño sincrónico. Sin embargo, la lógica asincrónica tiene la ventaja de que su velocidad no está limitada por un reloj arbitrario; en cambio, corre a la máxima velocidad de sus puertas lógicas. [a] La construcción de un sistema asíncrono utilizando piezas más rápidas hace que el circuito sea más rápido.
Sin embargo, la mayoría de los sistemas necesitan aceptar señales externas no sincronizadas en sus circuitos lógicos sincrónicos. Esta interfaz es intrínsecamente asincrónica y debe analizarse como tal. Ejemplos de circuitos asíncronos ampliamente utilizados incluyen flip-flops sincronizadores, interruptores antirrebote y árbitros .
Los componentes lógicos asíncronos pueden ser difíciles de diseñar porque se deben considerar todos los estados posibles, en todos los tiempos posibles. El método habitual es construir una tabla del tiempo mínimo y máximo que puede existir cada uno de esos estados y luego ajustar el circuito para minimizar el número de tales estados. El diseñador debe obligar al circuito a que espere periódicamente a que todas sus partes entren en un estado compatible (esto se denomina "auto resincronización"). Sin un diseño cuidadoso, es fácil producir accidentalmente una lógica asíncrona que sea inestable, es decir, la electrónica real tendrá resultados impredecibles debido a los retrasos acumulativos causados por pequeñas variaciones en los valores de los componentes electrónicos.
Registrar sistemas de transferencia
Muchos sistemas digitales son máquinas de flujo de datos . Por lo general, se diseñan utilizando la lógica de transferencia de registros síncrona , utilizando lenguajes de descripción de hardware como VHDL o Verilog .
En la lógica de transferencia de registros, los números binarios se almacenan en grupos de flip flops llamados registros . Una máquina de estado secuencial controla cuándo cada registro acepta nuevos datos de su entrada. Las salidas de cada registro son un conjunto de cables llamado bus que lleva ese número a otros cálculos. Un cálculo es simplemente una pieza de lógica combinacional. Cada cálculo también tiene un bus de salida, y estos pueden conectarse a las entradas de varios registros. A veces, una caja registradora tendrá un multiplexor en su entrada para que pueda almacenar un número de cualquiera de varios buses. [B]
Los sistemas de transferencia de registros asíncronos (como las computadoras) tienen una solución general. En la década de 1980, algunos investigadores descubrieron que casi todas las máquinas de transferencia de registros síncronas podían convertirse en diseños asíncronos mediante el uso de la lógica de sincronización primero en entrar, primero en salir. En este esquema, la máquina digital se caracteriza como un conjunto de flujos de datos. En cada paso del flujo, un circuito de sincronización determina cuándo las salidas de ese paso son válidas e indica a la siguiente etapa cuándo utilizar estas salidas. [ cita requerida ]
Diseño de computadora
La máquina lógica de transferencia de registros de propósito más general es una computadora . Se trata básicamente de un ábaco binario automático . La unidad de control de una computadora generalmente está diseñada como un microprograma ejecutado por un microsecuenciador . Un microprograma es muy parecido a un redoble de piano. Cada entrada de la tabla del microprograma controla el estado de cada bit que controla la computadora. El secuenciador luego cuenta, y el conteo se dirige a la memoria o máquina de lógica combinacional que contiene el microprograma. Los bits del microprograma controlan la unidad aritmética lógica , la memoria y otras partes de la computadora, incluido el propio microsecuenciador. De esta manera, la compleja tarea de diseñar los controles de una computadora se reduce a una tarea más simple de programar una colección de máquinas lógicas mucho más simples.
Casi todas las computadoras son sincrónicas. Sin embargo, también se han construido computadoras asincrónicas . Un ejemplo es el núcleo ASPIDA DLX . [43] Otro fue ofrecido por ARM Holdings . [44] Las ventajas de velocidad para las computadoras asíncronas no se han materializado, porque los diseños de computadoras modernas ya se ejecutan a la velocidad de su componente más lento, generalmente la memoria. Usan algo menos de energía porque no se necesita una red de distribución de reloj. Una ventaja inesperada es que las computadoras asíncronas no producen ruido de radio espectralmente puro. Se utilizan en algunos controladores de estaciones base de teléfonos móviles sensibles a la radio. Pueden ser más seguros en aplicaciones criptográficas porque sus emisiones eléctricas y de radio pueden ser más difíciles de decodificar. [44]
Arquitectura de Computadores
La arquitectura de la computadora es una actividad de ingeniería especializada que intenta organizar los registros, la lógica de cálculo, los buses y otras partes de la computadora de la mejor manera para un propósito designado. Los arquitectos de computadoras han aplicado una gran cantidad de ingenio al diseño de computadoras para reducir el costo y aumentar la velocidad y la inmunidad a los errores de programación de las computadoras. Un objetivo cada vez más común es reducir la energía utilizada en un sistema informático que funciona con baterías, como un teléfono inteligente .
Problemas de diseño en circuitos digitales
Los circuitos digitales están hechos de componentes analógicos. El diseño debe asegurar que la naturaleza analógica de los componentes no domine el comportamiento digital deseado. Los sistemas digitales deben gestionar los márgenes de ruido y temporización, inductancias y capacitancias parásitas.
Los malos diseños tienen problemas intermitentes, como fallas , pulsos que se desvanecen rápidamente que pueden activar alguna lógica pero no otras, pulsos de ejecución que no alcanzan los voltajes de umbral válidos .
Además, cuando los sistemas digitales sincronizados se interconectan con sistemas analógicos o sistemas que se manejan desde un reloj diferente, el sistema digital puede estar sujeto a metaestabilidad donde un cambio en la entrada viola el tiempo de configuración para un pestillo de entrada digital.
Dado que los circuitos digitales están hechos de componentes analógicos, los circuitos digitales calculan más lentamente que los circuitos analógicos de baja precisión que utilizan una cantidad similar de espacio y potencia. Sin embargo, el circuito digital calculará de manera más repetible, debido a su alta inmunidad al ruido.
Herramientas de diseño automatizadas
Para ahorrar costosos esfuerzos de ingeniería, gran parte del esfuerzo de diseñar grandes máquinas lógicas se ha automatizado. Los programas de computadora se denominan " herramientas de automatización de diseño electrónico " o simplemente "EDA".
Las descripciones simples de lógica de estilo de tabla de verdad a menudo se optimizan con EDA que produce automáticamente sistemas reducidos de puertas lógicas o tablas de búsqueda más pequeñas que aún producen los resultados deseados. El ejemplo más común de este tipo de software es el minimizador lógico heurístico de Espresso .
La mayoría de los algoritmos prácticos para optimizar grandes sistemas lógicos utilizan manipulaciones algebraicas o diagramas de decisión binarios , y existen experimentos prometedores con algoritmos genéticos y optimizaciones de recocido .
Para automatizar costosos procesos de ingeniería, algunos EDA pueden tomar tablas de estados que describen máquinas de estados y producir automáticamente una tabla de verdad o una tabla de funciones para la lógica combinacional de una máquina de estados. La tabla de estado es un fragmento de texto que enumera cada estado, junto con las condiciones que controlan las transiciones entre ellos y las señales de salida correspondientes.
Es común que las tablas de funciones de tales máquinas de estado generadas por computadora se optimicen con software de minimización lógica como Minilog .
A menudo, los sistemas lógicos reales se diseñan como una serie de subproyectos, que se combinan mediante un "flujo de herramientas". El flujo de herramientas suele ser un "script", un lenguaje informático simplificado que puede invocar las herramientas de diseño de software en el orden correcto.
Tool flows for large logic systems such as microprocessors can be thousands of commands long, and combine the work of hundreds of engineers.
Writing and debugging tool flows is an established engineering specialty in companies that produce digital designs. The tool flow usually terminates in a detailed computer file or set of files that describe how to physically construct the logic. Often it consists of instructions to draw the transistors and wires on an integrated circuit or a printed circuit board.
Parts of tool flows are "debugged" by verifying the outputs of simulated logic against expected inputs. The test tools take computer files with sets of inputs and outputs, and highlight discrepancies between the simulated behavior and the expected behavior.
Once the input data is believed correct, the design itself must still be verified for correctness. Some tool flows verify designs by first producing a design, and then scanning the design to produce compatible input data for the tool flow. If the scanned data matches the input data, then the tool flow has probably not introduced errors.
The functional verification data are usually called "test vectors". The functional test vectors may be preserved and used in the factory to test that newly constructed logic works correctly. However, functional test patterns don't discover common fabrication faults. Production tests are often designed by software tools called "test pattern generators". These generate test vectors by examining the structure of the logic and systematically generating tests for particular faults. This way the fault coverage can closely approach 100%, provided the design is properly made testable (see next section).
Once a design exists, and is verified and testable, it often needs to be processed to be manufacturable as well. Modern integrated circuits have features smaller than the wavelength of the light used to expose the photoresist. Manufacturability software adds interference patterns to the exposure masks to eliminate open-circuits, and enhance the masks' contrast.
Design for testability
There are several reasons for testing a logic circuit. When the circuit is first developed, it is necessary to verify that the design circuit meets the required functional and timing specifications. When multiple copies of a correctly designed circuit are being manufactured, it is essential to test each copy to ensure that the manufacturing process has not introduced any flaws.[45]
A large logic machine (say, with more than a hundred logical variables) can have an astronomical number of possible states. Obviously, in the factory, testing every state is impractical if testing each state takes a microsecond, and there are more states than the number of microseconds since the universe began. This ridiculous-sounding case is typical.
Large logic machines are almost always designed as assemblies of smaller logic machines. To save time, the smaller sub-machines are isolated by permanently installed "design for test" circuitry, and are tested independently.
One common test scheme known as "scan design" moves test bits serially (one after another) from external test equipment through one or more serial shift registers known as "scan chains". Serial scans have only one or two wires to carry the data, and minimize the physical size and expense of the infrequently used test logic.
After all the test data bits are in place, the design is reconfigured to be in "normal mode" and one or more clock pulses are applied, to test for faults (e.g. stuck-at low or stuck-at high) and capture the test result into flip-flops and/or latches in the scan shift register(s). Finally, the result of the test is shifted out to the block boundary and compared against the predicted "good machine" result.
In a board-test environment, serial to parallel testing has been formalized with a standard called "JTAG" (named after the "Joint Test Action Group" that made it).
Another common testing scheme provides a test mode that forces some part of the logic machine to enter a "test cycle." The test cycle usually exercises large independent parts of the machine.
Trade-offs
Several numbers determine the practicality of a system of digital logic: cost, reliability, fanout and speed. Engineers explored numerous electronic devices to get a favourable combination of these personalities.
Cost
The cost of a logic gate is crucial, primarily because very many gates are needed to build a computer or other advanced digital system and because the more gates can be used, the more able and/or respondent the machine can become. Since the bulk of a digital computer is simply an interconnected network of logic gates, the overall cost of building a computer correlates strongly with the price per logic gate. In the 1930s, the earliest digital logic systems were constructed from telephone relays because these were inexpensive and relatively reliable. After that, electrical engineers always used the cheapest available electronic switches that could still fulfill the requirements.
The earliest integrated circuits were a happy accident. They were constructed not to save money, but to save weight, and permit the Apollo Guidance Computer to control an inertial guidance system for a spacecraft. The first integrated circuit logic gates cost nearly $50 (in 1960 dollars, when an engineer earned $10,000/year). Much to the surprise of many involved, by the time the circuits were mass-produced, they had become the least-expensive method of constructing digital logic. Improvements in this technology have driven all subsequent improvements in cost.
With the rise of integrated circuits, reducing the absolute number of chips used represented another way to save costs. The goal of a designer is not just to make the simplest circuit, but to keep the component count down. Sometimes this results in more complicated designs with respect to the underlying digital logic but nevertheless reduces the number of components, board size, and even power consumption. A major motive for reducing component count on printed circuit boards is to reduce the manufacturing defect rate and increase reliability, as every soldered connection is a potentially bad one, so the defect and failure rates tend to increase along with the total number of component pins.
For example, in some logic families, NAND gates are the simplest digital gate to build. All other logical operations can be implemented by NAND gates. If a circuit already required a single NAND gate, and a single chip normally carried four NAND gates, then the remaining gates could be used to implement other logical operations like logical and. This could eliminate the need for a separate chip containing those different types of gates.
Reliability
The "reliability" of a logic gate describes its mean time between failure (MTBF). Digital machines often have millions of logic gates. Also, most digital machines are "optimized" to reduce their cost. The result is that often, the failure of a single logic gate will cause a digital machine to stop working. It is possible to design machines to be more reliable by using redundant logic which will not malfunction as a result of the failure of any single gate (or even any two, three, or four gates), but this necessarily entails using more components, which raises the financial cost and also usually increases the weight of the machine and may increase the power it consumes.
Digital machines first became useful when the MTBF for a switch got above a few hundred hours. Even so, many of these machines had complex, well-rehearsed repair procedures, and would be nonfunctional for hours because a tube burned-out, or a moth got stuck in a relay. Modern transistorized integrated circuit logic gates have MTBFs greater than 82 billion hours (8.2 · 1010 hours),[46] and need them because they have so many logic gates.
Fanout
Fanout describes how many logic inputs can be controlled by a single logic output without exceeding the electrical current ratings of the gate outputs.[47] The minimum practical fanout is about five. Modern electronic logic gates using CMOS transistors for switches have fanouts near fifty, and can sometimes go much higher.
Speed
The "switching speed" describes how many times per second an inverter (an electronic representation of a "logical not" function) can change from true to false and back. Faster logic can accomplish more operations in less time. Digital logic first became useful when switching speeds got above 50 Hz, because that was faster than a team of humans operating mechanical calculators. Modern electronic digital logic routinely switches at 5 GHz (5 · 109 Hz), and some laboratory systems switch at more than 1 THz (1 · 1012 Hz)[citation needed].
Familias lógicas
Design started with relays. Relay logic was relatively inexpensive and reliable, but slow. Occasionally a mechanical failure would occur. Fanouts were typically about 10, limited by the resistance of the coils and arcing on the contacts from high voltages.
Later, vacuum tubes were used. These were very fast, but generated heat, and were unreliable because the filaments would burn out. Fanouts were typically 5...7, limited by the heating from the tubes' current. In the 1950s, special "computer tubes" were developed with filaments that omitted volatile elements like silicon. These ran for hundreds of thousands of hours.
The first semiconductor logic family was resistor–transistor logic. This was a thousand times more reliable than tubes, ran cooler, and used less power, but had a very low fan-in of 3. Diode–transistor logic improved the fanout up to about 7, and reduced the power. Some DTL designs used two power-supplies with alternating layers of NPN and PNP transistors to increase the fanout.
Transistor–transistor logic (TTL) was a great improvement over these. In early devices, fanout improved to 10, and later variations reliably achieved 20. TTL was also fast, with some variations achieving switching times as low as 20 ns. TTL is still used in some designs.
Emitter coupled logic is very fast but uses a lot of power. It was extensively used for high-performance computers made up of many medium-scale components (such as the Illiac IV).
By far, the most common digital integrated circuits built today use CMOS logic, which is fast, offers high circuit density and low-power per gate. This is used even in large, fast computers, such as the IBM System z.
Desarrollos recientes
In 2009, researchers discovered that memristors can implement a boolean state storage (similar to a flip flop, implication and logical inversion), providing a complete logic family with very small amounts of space and power, using familiar CMOS semiconductor processes.[48]
The discovery of superconductivity has enabled the development of rapid single flux quantum (RSFQ) circuit technology, which uses Josephson junctions instead of transistors. Most recently, attempts are being made to construct purely optical computing systems capable of processing digital information using nonlinear optical elements.
Ver también
- Boolean algebra
- Combinational logic
- De Morgan's laws
- Formal verification
- Hardware description language
- Integrated circuit
- Logical effort
- Logic family
- Logic gate
- Logic minimization
- Logic simulation
- Microelectronics
- Ringing
- Sequential logic
- Claude E. Shannon
- Transparent latch
- Unconventional computing
Notas
- ^ An example of an early asynchronous digital computer was the Jaincomp-B1 manufactured by the Jacobs Instrument Company in 1951, which allowed for an extremely high clock rate and delivered performance from a desktop-sized, 110 lb., 300 subminiature tube unit rivaling the typically room-sized computers of its day.[42]
- ^ Alternatively, the outputs of several items may be connected to a bus through buffers that can turn off the output of all of the devices except one.
Referencias
- ^ Null, Linda; Lobur, Julia (2006). The essentials of computer organization and architecture. Jones & Bartlett Publishers. p. 121. ISBN 978-0-7637-3769-6.
We can build logic diagrams (which in turn lead to digital circuits) for any Boolean expression...
- ^ Peirce, C. S., "Letter, Peirce to A. Marquand", dated 1886, Writings of Charles S. Peirce, v. 5, 1993, pp. 541–3. Google Preview. See Burks, Arthur W., "Review: Charles S. Peirce, The new elements of mathematics", Bulletin of the American Mathematical Society v. 84, n. 5 (1978), pp. 913–18, see 917. PDF Eprint.
- ^ In 1946, ENIAC required an estimated 174 kW. By comparison, a modern laptop computer may use around 30 W; nearly six thousand times less. "Approximate Desktop & Notebook Power Usage". University of Pennsylvania. Archived from the original on 3 June 2009. Retrieved 20 June 2009.
- ^ "A Computer Pioneer Rediscovered, 50 Years On". The New York Times. April 20, 1994.
- ^ Lee, Thomas H. (2003). The Design of CMOS Radio-Frequency Integrated Circuits (PDF). Cambridge University Press. ISBN 9781139643771.
- ^ Puers, Robert; Baldi, Livio; Voorde, Marcel Van de; Nooten, Sebastiaan E. van (2017). Nanoelectronics: Materials, Devices, Applications, 2 Volumes. John Wiley & Sons. p. 14. ISBN 9783527340538.
- ^ Lavington, Simon (1998), A History of Manchester Computers (2 ed.), Swindon: The British Computer Society, pp. 34–35
- ^ "The Chip that Jack Built". Texas Instruments. 2008. Retrieved 29 May 2008.
- ^ Bassett, Ross Knox (2007). To the Digital Age: Research Labs, Start-up Companies, and the Rise of MOS Technology. Johns Hopkins University Press. p. 46. ISBN 9780801886393.
- ^ "1960 - Metal Oxide Semiconductor (MOS) Transistor Demonstrated". The Silicon Engine. Computer History Museum.
- ^ a b "Who Invented the Transistor?". Computer History Museum. 4 December 2013. Retrieved 20 July 2019.
- ^ a b c "Triumph of the MOS Transistor". YouTube. Computer History Museum. 6 August 2010. Retrieved 21 July 2019.
- ^ Motoyoshi, M. (2009). "Through-Silicon Via (TSV)". Proceedings of the IEEE. 97 (1): 43–48. doi:10.1109/JPROC.2008.2007462. ISSN 0018-9219. S2CID 29105721.
- ^ "Tortoise of Transistors Wins the Race - CHM Revolution". Computer History Museum. Retrieved 22 July 2019.
- ^ "Transistors Keep Moore's Law Alive". EETimes. 12 December 2018. Retrieved 18 July 2019.
- ^ a b "Applying MOSFETs to Today's Power-Switching Designs". Electronic Design. 23 May 2016. Retrieved 10 August 2019.
- ^ B. SOMANATHAN NAIR (2002). Digital electronics and logic design. PHI Learning Pvt. Ltd. p. 289. ISBN 9788120319561.
Digital signals are fixed-width pulses, which occupy only one of two levels of amplitude.
- ^ Joseph Migga Kizza (2005). Computer Network Security. Springer Science & Business Media. ISBN 9780387204734.
- ^ 2000 Solved Problems in Digital Electronics. Tata McGraw-Hill Education. 2005. p. 151. ISBN 978-0-07-058831-8.
- ^ Chan, Yi-Jen (1992). Studies of InAIAs/InGaAs and GaInP/GaAs heterostructure FET's for high speed applications. University of Michigan. p. 1.
The Si MOSFET has revolutionized the electronics industry and as a result impacts our daily lives in almost every conceivable way.
- ^ Grant, Duncan Andrew; Gowar, John (1989). Power MOSFETS: theory and applications. Wiley. p. 1. ISBN 9780471828679.
The metal-oxide-semiconductor field-effect transistor (MOSFET) is the most commonly used active device in the very large-scale integration of digital integrated circuits (VLSI). During the 1970s these components revolutionized electronic signal processing, control systems and computers.
- ^ Golio, Mike; Golio, Janet (2018). RF and Microwave Passive and Active Technologies. CRC Press. pp. 18–2. ISBN 9781420006728.
- ^ Raymer, Michael G. (2009). The Silicon Web: Physics for the Internet Age. CRC Press. p. 365. ISBN 9781439803127.
- ^ Wong, Kit Po (2009). Electrical Engineering - Volume II. EOLSS Publications. p. 7. ISBN 9781905839780.
- ^ Hittinger, William C. (1973). "Metal-Oxide-Semiconductor Technology". Scientific American. 229 (2): 48–59. Bibcode:1973SciAm.229b..48H. doi:10.1038/scientificamerican0873-48. ISSN 0036-8733. JSTOR 24923169.
- ^ Peter Clarke (14 October 2005). "Intel enters billion-transistor processor era". EE Times.
- ^ "13 Sextillion & Counting: The Long & Winding Road to the Most Frequently Manufactured Human Artifact in History". Computer History Museum. April 2, 2018. Retrieved 12 October 2020.
- ^ Golio, Mike; Golio, Janet (2018). RF and Microwave Passive and Active Technologies. CRC Press. pp. ix, I-1, 18–2. ISBN 9781420006728.
- ^ Rappaport, T. S. (November 1991). "The wireless revolution". IEEE Communications Magazine. 29 (11): 52–71. doi:10.1109/35.109666. S2CID 46573735.
- ^ "The wireless revolution". The Economist. January 21, 1999. Retrieved 12 September 2019.
- ^ Ahmed, Nasir (January 1991). "How I Came Up With the Discrete Cosine Transform". Digital Signal Processing. 1 (1): 4–5. doi:10.1016/1051-2004(91)90086-Z.
- ^ a b Lea, William (1994). Video on demand: Research Paper 94/68. 9 May 1994: House of Commons Library. Archived from the original on 20 September 2019. Retrieved 20 September 2019.CS1 maint: location (link)
- ^ Frolov, Artem; Primechaev, S. (2006). "Compressed Domain Image Retrievals Based On DCT-Processing". Semantic Scholar. S2CID 4553.
- ^ Lee, Ruby Bei-Loh; Beck, John P.; Lamb, Joel; Severson, Kenneth E. (April 1995). "Real-time software MPEG video decoder on multimedia-enhanced PA 7100LC processors" (PDF). Hewlett-Packard Journal. 46 (2). ISSN 0018-1153.
- ^ a b Stanković, Radomir S.; Astola, Jaakko T. (2012). "Reminiscences of the Early Work in DCT: Interview with K.R. Rao" (PDF). Reprints from the Early Days of Information Sciences. 60. Retrieved 13 October 2019.
- ^ Luo, Fa-Long (2008). Mobile Multimedia Broadcasting Standards: Technology and Practice. Springer Science & Business Media. p. 590. ISBN 9780387782638.
- ^ Britanak, V. (2011). "On Properties, Relations, and Simplified Implementation of Filter Banks in the Dolby Digital (Plus) AC-3 Audio Coding Standards". IEEE Transactions on Audio, Speech, and Language Processing. 19 (5): 1231–1241. doi:10.1109/TASL.2010.2087755. S2CID 897622.
- ^ Shishikui, Yoshiaki; Nakanishi, Hiroshi; Imaizumi, Hiroyuki (October 26–28, 1993). "An HDTV Coding Scheme using Adaptive-Dimension DCT". Signal Processing of HDTV: Proceedings of the International Workshop on HDTV '93, Ottawa, Canada. Elsevier: 611–618. doi:10.1016/B978-0-444-81844-7.50072-3. ISBN 9781483298511.
- ^ Matthew, Crick (2016). Power, Surveillance, and Culture in YouTube™'s Digital Sphere. IGI Global. pp. 36–7. ISBN 9781466698567.
- ^ Paul Horowitz and Winfield Hill, The Art of Electronics 2nd Ed. Cambridge University Press, Cambridge, 1989 ISBN 0-521-37095-7 page 471
- ^ Maini. A.K. (2007). Digital Electronics Principles, Devices and Applications. Chichester, England.: John Wiley & Sons Ltd.
- ^ Pentagon symposium: Commercially Available General Purpose Electronic Digital Computers of Moderate Price, Washington, D.C., 14 MAY 1952
- ^ "ASODA sync/async DLX Core". OpenCores.org. Retrieved September 5, 2014.
- ^ a b Clarke, Peter. "ARM Offers First Clockless Processor Core". eetimes.com. UBM Tech (Universal Business Media). Retrieved 5 September 2014.
- ^ Brown S & Vranesic Z. (2009). Fundamentals of Digital Logic with VHDL Design. 3rd ed. New York, N.Y.: Mc Graw Hill.
- ^ MIL-HDBK-217F notice 2, section 5.3, for 100,000 gate 0.8 micrometre CMOS commercial ICs at 40C; failure rates in 2010 are better, because line sizes have decreased to 0.045 micrometres, and fewer off-chip connections are needed per gate.
- ^ Kleitz , William. (2002). Digital and Microprocessor Fundamentals: Theory and Application. 4th ed. Upper Saddler Reviver, NJ: Pearson/Prentice Hall
- ^ Eero Lehtonen, Mika Laihom, "Stateful implication logic with memristors", Proceedings of the 2009 IEEE/ACM International Symposium on Nanoscale Architectures IEEE Computer Society Washington, DC, USA ©2009 Accessed 2011-12-11
Otras lecturas
- Douglas Lewin, Logical Design of Switching Circuits, Nelson,1974.
- R. H. Katz, Contemporary Logic Design, The Benjamin/Cummings Publishing Company, 1994.
- P. K. Lala, Practical Digital Logic Design and Testing, Prentice Hall, 1996.
- Y. K. Chan and S. Y. Lim, Progress In Electromagnetics Research B, Vol. 1, 269–290, 2008, "Synthetic Aperture Radar (SAR) Signal Generation, Faculty of Engineering & Technology, Multimedia University, Jalan Ayer Keroh Lama, Bukit Beruang, Melaka 75450, Malaysia.
enlaces externos
- Digital Circuit Projects: An Overview of Digital Circuits Through Implementing Integrated Circuits (2014)
- Lessons in Electric Circuits - Volume IV (Digital)
- MIT OpenCourseWare introduction to digital design class materials ("6.004: Computation Structures")