De Wikipedia, la enciclopedia libre
  (Redirigido desde hardware digital )
Saltar a navegación Saltar a búsqueda
Electrónica digital
Un controlador digital industrial

La electrónica digital es un campo de la electrónica que implica el estudio de señales digitales y la ingeniería de dispositivos que las utilizan o producen. Esto contrasta con la electrónica analógica y las señales analógicas .

Los circuitos electrónicos digitales suelen estar hechos de grandes conjuntos de puertas lógicas , a menudo empaquetados en circuitos integrados . Los dispositivos complejos pueden tener representaciones electrónicas simples de funciones lógicas booleanas . [1]

Historia [ editar ]

El sistema numérico binario fue refinado por Gottfried Wilhelm Leibniz (publicado en 1705) y también estableció que al usar el sistema binario, los principios de la aritmética y la lógica podrían unirse. La lógica digital tal como la conocemos fue la creación de George Boole a mediados del siglo XIX. En una carta de 1886, Charles Sanders Peirce describió cómo las operaciones lógicas podrían llevarse a cabo mediante circuitos de conmutación eléctricos. [2] Finalmente, los tubos de vacío reemplazaron los relés para las operaciones lógicas. La modificación de Lee De Forest , en 1907, de la válvula Fleming se puede utilizar como compuerta AND . Ludwig Wittgensteinintrodujo una versión de la tabla de verdad de 16 filas como proposición 5.101 de Tractatus Logico-Philosophicus (1921). Walther Bothe , inventor del circuito de coincidencia , compartió el Premio Nobel de Física de 1954 por la primera puerta AND electrónica moderna en 1924.

Las computadoras analógicas mecánicas comenzaron a aparecer en el siglo I y luego se usaron en la era medieval para cálculos astronómicos. En la Segunda Guerra Mundial , las computadoras analógicas mecánicas se utilizaron para aplicaciones militares especializadas, como calcular el objetivo de torpedos. Durante este tiempo se desarrollaron las primeras computadoras digitales electrónicas . Originalmente eran del tamaño de una habitación grande y consumían tanta energía como varios cientos de computadoras personales (PC) modernas . [3]

El Z3 era una computadora electromecánica diseñada por Konrad Zuse . Terminada en 1941, fue la primera computadora digital totalmente automática, programable y funcional del mundo . [4] Su funcionamiento fue facilitado por la invención del tubo de vacío en 1904 por John Ambrose Fleming .

Al mismo tiempo que el cálculo digital reemplazó al analógico, los elementos de circuito puramente electrónicos pronto reemplazaron a sus equivalentes mecánicos y electromecánicos. John Bardeen y Walter Brattain inventaron el transistor de contacto puntual en Bell Labs en 1947, seguidos por William Shockley que inventó el transistor de unión bipolar en Bell Labs en 1948. [5] [6]

En la Universidad de Manchester , un equipo bajo la dirección de Tom Kilburn diseñó y construyó una máquina utilizando los transistores recientemente desarrollados en lugar de tubos de vacío. [7] Su primera computadora transistorizada y la primera del mundo, estaba operativa en 1953., y una segunda versión se completó allí en abril de 1955. A partir de 1955, los transistores reemplazaron a los tubos de vacío en los diseños de computadora, dando lugar a la "segunda generación" de computadoras. En comparación con los tubos de vacío, los transistores eran más pequeños, más confiables, tenían una vida útil indefinida y requerían menos energía que los tubos de vacío, por lo que emitían menos calor y permitían concentraciones mucho más densas de circuitos, hasta decenas de miles en un espacio relativamente compacto.

Mientras trabajaba en Texas Instruments en julio de 1958, Jack Kilby registró sus ideas iniciales sobre el circuito integrado (IC), luego demostró con éxito el primer trabajo integrado el 12 de septiembre de 1958. [8] El chip de Kilby estaba hecho de germanio . Al año siguiente, Robert Noyce de Fairchild Semiconductor inventó el circuito integrado de silicio . La base del CI de silicio de Noyce fue el proceso plano , desarrollado a principios de 1959 por Jean Hoerni , quien a su vez se basó en la pasivación de la superficie de silicio de Mohamed Atalla .método desarrollado en 1957. [9] Esta nueva técnica, el circuito integrado, permitió la fabricación rápida y de bajo costo de circuitos complejos al tener un conjunto de circuitos electrónicos en una placa pequeña ("chip") de material semiconductor , normalmente silicio.

Revolución digital y era digital [ editar ]

El transistor de efecto de campo semiconductor de óxido metálico (MOSFET), también conocido como transistor MOS, fue inventado por Mohamed Atalla y Dawon Kahng en Bell Labs en 1959. [10] [11] [12] Las ventajas del MOSFET incluyen una alta escalabilidad , [13] asequibilidad, [14] bajo consumo de energía y alta densidad de transistores . [15] Su rápida velocidad de conmutación electrónica de encendido y apagado también lo hace ideal para generar trenes de pulsos , [16] la base de las señales digitales electrónicas , [17] [18]a diferencia de los BJT, que generan más lentamente señales analógicas que se asemejan a ondas sinusoidales . [16] Junto con la integración a gran escala de MOS (LSI), estos factores hacen del MOSFET un dispositivo de conmutación importante para circuitos digitales . [19] El MOSFET revolucionó la industria electrónica , [20] [21] y es el dispositivo semiconductor más común . [11] [22] Los MOSFET son los bloques de construcción fundamentales de la electrónica digital durante la Revolución Digital de finales del siglo XX y principios del XXI. [12] [23] [24]Esto allanó el camino para la era digital de principios del siglo XXI. [12]

En los primeros días de los circuitos integrados , cada chip se limitaba a unos pocos transistores, y el bajo grado de integración significaba que el proceso de diseño era relativamente simple. Los rendimientos de fabricación también fueron bastante bajos para los estándares actuales. La amplia adopción del transistor MOSFET a principios de la década de 1970 llevó a los primeros chips de integración a gran escala (LSI) con más de 10,000 transistores en un solo chip. [25] Tras la amplia adopción de CMOS , un tipo de lógica MOSFET, en la década de 1980, se podían colocar millones y luego miles de millones de MOSFET en un chip a medida que avanzaba la tecnología, [26] y los buenos diseños requerían una planificación minuciosa, dando lugar a nuevos métodos de diseño . LaEl recuento de transistores de ambos dispositivos individuales y la producción total se elevaron a niveles sin precedentes. Se ha estimado que la cantidad total de transistores producidos hasta 2018 es1,3 × 10 22 (13 sextillones ). [27] 

La revolución inalámbrica , la introducción y proliferación de redes inalámbricas , comenzó en la década de 1990 y fue posible gracias a la amplia adopción de amplificadores de potencia de RF basados ​​en MOSFET ( MOSFET de potencia y LDMOS ) y circuitos de RF ( CMOS de RF ). [28] [29] [30] Las redes inalámbricas permitieron la transmisión digital pública sin necesidad de cables, lo que condujo a la televisión digital (TV digital), GPS , radio satelital , Internet inalámbrico y teléfonos móviles durante las décadas de 1990 y 2000.

La codificación de transformada de coseno discreta (DCT), una técnica de compresión de datos propuesta por primera vez por Nasir Ahmed en 1972, [31] permitió la transmisión de medios digitales prácticos , [32] [33] [34] con formatos de compresión de imágenes como JPEG (1992), video formatos de codificación como H.26x (1988 en adelante) y MPEG (1993 en adelante), [35] estándares de codificación de audio como Dolby Digital (1991) [36] [37] y MP3 (1994), [35]y estándares de televisión digital como vídeo a la carta (VOD) [32] y televisión de alta definición (HDTV). [38] El video de Internet fue popularizado por YouTube , una plataforma de video en línea fundada por Chad Hurley , Jawed Karim y Steve Chen en 2005, que permitió la transmisión de video de contenido generado por el usuario MPEG-4 AVC (H.264) desde cualquier lugar del World Wide Web . [39]

Propiedades [ editar ]

Una ventaja de los circuitos digitales en comparación con los circuitos analógicos es que las señales representadas digitalmente se pueden transmitir sin degradación causada por el ruido . [40] Por ejemplo, una señal de audio continua transmitida como una secuencia de unos y ceros puede reconstruirse sin errores, siempre que el ruido captado en la transmisión no sea suficiente para evitar la identificación de los unos y los ceros.

En un sistema digital, se puede obtener una representación más precisa de una señal utilizando más dígitos binarios para representarla. Si bien esto requiere más circuitos digitales para procesar las señales, cada dígito es manejado por el mismo tipo de hardware, lo que resulta en un sistema fácilmente escalable . En un sistema analógico, la resolución adicional requiere mejoras fundamentales en las características de linealidad y ruido de cada paso de la cadena de señal .

Con sistemas digitales controlados por computadora, se agregarán nuevas funciones a través de la revisión del software y sin cambios de hardware. A menudo, esto se puede hacer fuera de la fábrica actualizando el software del producto. Por lo tanto, los errores de diseño del producto se pueden corregir una vez que el producto está en manos del cliente.

El almacenamiento de información puede ser más fácil en sistemas digitales que en analógicos. La inmunidad al ruido de los sistemas digitales permite que los datos se almacenen y recuperen sin degradación. En un sistema analógico, el ruido del envejecimiento y el desgaste degradan la información almacenada. En un sistema digital, siempre que el ruido total esté por debajo de cierto nivel, la información se puede recuperar perfectamente. Incluso cuando hay un ruido más significativo, el uso de la redundancia permite la recuperación de los datos originales siempre que no se produzcan demasiados errores.

En algunos casos, los circuitos digitales utilizan más energía que los circuitos analógicos para realizar las mismas tareas, por lo que producen más calor, lo que aumenta la complejidad de los circuitos, como la inclusión de disipadores de calor. En sistemas portátiles o que funcionan con baterías, esto puede limitar el uso de sistemas digitales. Por ejemplo, los teléfonos celulares que funcionan con baterías a menudo usan un front-end analógico de baja potencia para amplificar y sintonizar las señales de radio de la estación base. Sin embargo, una estación base tiene energía de red y puede usar radios de software muy flexibles pero que consumen mucha energía . Estas estaciones base se pueden reprogramar fácilmente para procesar las señales utilizadas en los nuevos estándares celulares.

Muchos sistemas digitales útiles deben traducirse de señales analógicas continuas a señales digitales discretas. Esto provoca errores de cuantificación . El error de cuantificación se puede reducir si el sistema almacena suficientes datos digitales para representar la señal con el grado de fidelidad deseado . El teorema de muestreo de Nyquist-Shannon proporciona una guía importante sobre cuántos datos digitales se necesitan para representar con precisión una señal analógica determinada.

En algunos sistemas, si una sola pieza de datos digitales se pierde o se malinterpreta, el significado de grandes bloques de datos relacionados puede cambiar por completo. Por ejemplo, un error de un solo bit en los datos de audio almacenados directamente como modulación de código de pulso lineal provoca, en el peor de los casos, un solo clic. En cambio, muchas personas usan la compresión de audio para ahorrar espacio de almacenamiento y tiempo de descarga, aunque un error de un solo bit puede causar una interrupción mayor.

Debido al efecto acantilado , a los usuarios puede resultarles difícil saber si un sistema en particular está al borde de la falla o si puede tolerar mucho más ruido antes de fallar. La fragilidad digital se puede reducir diseñando un sistema digital de robustez. Por ejemplo, se puede insertar un bit de paridad u otro método de gestión de errores en la ruta de la señal. Estos esquemas ayudan al sistema a detectar errores y luego corregirlos o solicitar la retransmisión de los datos.

Construcción [ editar ]

Un reloj binario , cableado a mano en placas de prueba

Un circuito digital se construye típicamente a partir de pequeños circuitos electrónicos llamados puertas lógicas que se pueden usar para crear lógica combinacional . Cada puerta lógica está diseñada para realizar una función de lógica booleana cuando actúa sobre señales lógicas. Una puerta lógica generalmente se crea a partir de uno o más interruptores controlados eléctricamente, generalmente transistores, pero las válvulas termoiónicas han tenido un uso histórico. La salida de una puerta lógica puede, a su vez, controlar o alimentar más puertas lógicas.

Otra forma de circuito digital se construye a partir de tablas de búsqueda (muchas se venden como " dispositivos lógicos programables ", aunque existen otros tipos de PLD). Las tablas de búsqueda pueden realizar las mismas funciones que las máquinas basadas en puertas lógicas, pero se pueden reprogramar fácilmente sin cambiar el cableado. Esto significa que un diseñador a menudo puede reparar errores de diseño sin cambiar la disposición de los cables. Por lo tanto, en productos de pequeño volumen, los dispositivos lógicos programables suelen ser la solución preferida. Por lo general, los diseñan ingenieros que utilizan software de automatización de diseño electrónico.

Los circuitos integrados constan de varios transistores en un chip de silicio y son la forma menos costosa de crear una gran cantidad de puertas lógicas interconectadas. Los circuitos integrados generalmente están interconectados en una placa de circuito impreso, que es una placa que contiene componentes eléctricos y los conecta con trazas de cobre.

Diseño [ editar ]

Los ingenieros utilizan muchos métodos para minimizar la redundancia lógica a fin de reducir la complejidad del circuito. La complejidad reducida reduce la cantidad de componentes y los errores potenciales y, por lo tanto, generalmente reduce los costos. La redundancia lógica se puede eliminar mediante varias técnicas bien conocidas, como los diagramas de decisión binarios , el álgebra booleana , los mapas de Karnaugh , el algoritmo de Quine-McCluskey y el método informático heurístico . Estas operaciones se realizan típicamente dentro de un sistema de diseño asistido por computadora .

Los sistemas integrados con microcontroladores y controladores lógicos programables se utilizan a menudo para implementar lógica digital para sistemas complejos que no requieren un rendimiento óptimo. Estos sistemas suelen ser programados por ingenieros de software o electricistas, utilizando lógica de escalera .

Representación [ editar ]

Las representaciones son cruciales para el diseño de circuitos digitales de un ingeniero. Para elegir representaciones, los ingenieros consideran los tipos de sistemas digitales.

La forma clásica de representar un circuito digital es con un conjunto equivalente de puertas lógicas . Cada símbolo lógico está representado por una forma diferente. El conjunto real de formas se introdujo en 1984 bajo el estándar IEEE / ANSI 91-1984 y ahora es de uso común por los fabricantes de circuitos integrados. [41] Otra forma es construir un sistema equivalente de interruptores electrónicos (generalmente transistores ). Esto se puede representar como una tabla de verdad .

La mayoría de los sistemas digitales se dividen en sistemas combinacionales y secuenciales . Un sistema combinacional siempre presenta la misma salida cuando se le dan las mismas entradas. Un sistema secuencial es un sistema combinacional con algunas de las salidas realimentadas como entradas. Esto hace que la máquina digital realice una secuencia de operaciones. El sistema secuencial más simple es probablemente un flip flop , un mecanismo que representa un dígito binario o " bit ". Los sistemas secuenciales a menudo se diseñan como máquinas de estados . De esta manera, los ingenieros pueden diseñar el comportamiento bruto de un sistema e incluso probarlo en una simulación, sin considerar todos los detalles de las funciones lógicas.

Los sistemas secuenciales se dividen en dos subcategorías más. Los sistemas secuenciales "síncronos" cambian de estado todos a la vez cuando una señal de reloj cambia de estado. Los sistemas secuenciales "asincrónicos" propagan los cambios siempre que cambian las entradas. Los sistemas secuenciales síncronos están hechos de circuitos asíncronos bien caracterizados, como flip-flops, que cambian solo cuando cambia el reloj y que tienen márgenes de tiempo cuidadosamente diseñados.

Para la simulación lógica , las representaciones de circuitos digitales tienen formatos de archivos digitales que pueden ser procesados ​​por programas de computadora.

Sistemas síncronos [ editar ]

Un contador de anillo de 4 bits que utiliza flip flops tipo D es un ejemplo de lógica síncrona. Cada dispositivo está conectado a la señal del reloj y se actualizan juntos.

La forma habitual de implementar una máquina de estado secuencial síncrona es dividirla en una pieza de lógica combinacional y un conjunto de flip flops llamado registro de estado . El registro estatal representa el estado como un número binario. La lógica combinacional produce la representación binaria para el siguiente estado. En cada ciclo de reloj, el registro de estado captura la retroalimentación generada a partir del estado anterior de la lógica combinacional y la retroalimenta como una entrada invariable a la parte combinacional de la máquina de estado. La frecuencia de reloj está limitada por el cálculo lógico que consume más tiempo en la lógica combinacional.

Sistemas asincrónicos [ editar ]

La mayor parte de la lógica digital es sincrónica porque es más fácil crear y verificar un diseño sincrónico. Sin embargo, la lógica asincrónica tiene la ventaja de que su velocidad no está limitada por un reloj arbitrario; en cambio, corre a la máxima velocidad de sus puertas lógicas. [a] La construcción de un sistema asíncrono utilizando piezas más rápidas hace que el circuito sea más rápido.

Sin embargo, la mayoría de los sistemas necesitan aceptar señales externas no sincronizadas en sus circuitos lógicos sincrónicos. Esta interfaz es intrínsecamente asincrónica y debe analizarse como tal. Ejemplos de circuitos asíncronos ampliamente utilizados incluyen flip-flops sincronizadores, interruptores antirrebote y árbitros .

Los componentes lógicos asíncronos pueden ser difíciles de diseñar porque se deben considerar todos los estados posibles, en todos los tiempos posibles. El método habitual es construir una tabla del tiempo mínimo y máximo que puede existir cada uno de esos estados y luego ajustar el circuito para minimizar el número de tales estados. El diseñador debe obligar al circuito a que espere periódicamente a que todas sus partes entren en un estado compatible (esto se denomina "auto resincronización"). Sin un diseño cuidadoso, es fácil producir accidentalmente una lógica asíncrona que sea inestable, es decir, la electrónica real tendrá resultados impredecibles debido a los retrasos acumulativos causados ​​por pequeñas variaciones en los valores de los componentes electrónicos.

Registrar sistemas de transferencia [ editar ]

Ejemplo de un circuito simple con una salida alternante. El inversor forma la lógica combinacional en este circuito y el registro mantiene el estado.

Muchos sistemas digitales son máquinas de flujo de datos . Por lo general, se diseñan utilizando la lógica de transferencia de registros síncrona , utilizando lenguajes de descripción de hardware como VHDL o Verilog .

En la lógica de transferencia de registros, los números binarios se almacenan en grupos de flip flops llamados registros . Una máquina de estado secuencial controla cuándo cada registro acepta nuevos datos de su entrada. Las salidas de cada registro son un conjunto de cables llamado bus que lleva ese número a otros cálculos. Un cálculo es simplemente una pieza de lógica combinacional. Cada cálculo también tiene un bus de salida, y estos pueden conectarse a las entradas de varios registros. A veces, una caja registradora tendrá un multiplexor en su entrada para que pueda almacenar un número de cualquiera de varios buses. [B]

Los sistemas de transferencia de registros asíncronos (como las computadoras) tienen una solución general. En la década de 1980, algunos investigadores descubrieron que casi todas las máquinas de transferencia de registros síncronas podían convertirse en diseños asíncronos mediante el uso de la lógica de sincronización primero en entrar, primero en salir. En este esquema, la máquina digital se caracteriza como un conjunto de flujos de datos. En cada paso del flujo, un circuito de sincronización determina cuándo las salidas de ese paso son válidas e indica a la siguiente etapa cuándo utilizar estas salidas. [ cita requerida ]

Diseño informático [ editar ]

Intel 80486Dx2 microprocesador

La máquina lógica de transferencia de registros de propósito más general es una computadora . Se trata básicamente de un ábaco binario automático . La unidad de control de una computadora generalmente está diseñada como un microprograma ejecutado por un microsecuenciador . Un microprograma es muy parecido a un redoble de piano. Cada entrada de la tabla del microprograma controla el estado de cada bit que controla la computadora. El secuenciador luego cuenta, y el conteo se dirige a la memoria o máquina de lógica combinacional que contiene el microprograma. Los bits del microprograma controlan la unidad lógica aritmética , la memoriay otras partes de la computadora, incluido el propio microsecuenciador. De esta manera, la compleja tarea de diseñar los controles de una computadora se reduce a una tarea más simple de programar una colección de máquinas lógicas mucho más simples.

Casi todas las computadoras son sincrónicas. Sin embargo, también se han construido computadoras asincrónicas . Un ejemplo es el núcleo ASPIDA DLX . [43] Otro fue ofrecido por ARM Holdings . [44]Las ventajas de velocidad para las computadoras asincrónicas no se han materializado, porque los diseños de computadoras modernas ya se ejecutan a la velocidad de su componente más lento, generalmente la memoria. Usan algo menos de energía porque no se necesita una red de distribución de reloj. Una ventaja inesperada es que las computadoras asíncronas no producen ruido de radio espectralmente puro. Se utilizan en algunos controladores de estaciones base de teléfonos móviles sensibles a la radio. Pueden ser más seguros en aplicaciones criptográficas porque sus emisiones eléctricas y de radio pueden ser más difíciles de decodificar. [44]

Arquitectura informática [ editar ]

La arquitectura de la computadora es una actividad de ingeniería especializada que intenta organizar los registros, la lógica de cálculo, los buses y otras partes de la computadora de la mejor manera para un propósito designado. Los arquitectos de computadoras han aplicado una gran cantidad de ingenio al diseño de computadoras para reducir el costo y aumentar la velocidad y la inmunidad a los errores de programación de las computadoras. Un objetivo cada vez más común es reducir la energía utilizada en un sistema informático que funciona con baterías, como un teléfono inteligente .

Problemas de diseño en circuitos digitales [ editar ]

Los circuitos digitales están hechos de componentes analógicos. El diseño debe asegurar que la naturaleza analógica de los componentes no domine el comportamiento digital deseado. Los sistemas digitales deben gestionar el ruido y los márgenes de tiempo, las inductancias y capacitancias parásitas y filtrar las conexiones de alimentación.

Los malos diseños tienen problemas intermitentes como "fallos", pulsos extremadamente rápidos que pueden desencadenar alguna lógica pero no otras, " pulsos runt " que no alcanzan voltajes "umbral" válidos o combinaciones inesperadas ("no codificadas") de estados lógicos.

Además, cuando los sistemas digitales sincronizados se interconectan con sistemas analógicos o sistemas que se manejan desde un reloj diferente, el sistema digital puede estar sujeto a metaestabilidad donde un cambio en la entrada viola el tiempo de configuración para un pestillo de entrada digital. Esta situación se resolverá por sí sola, pero tomará un tiempo aleatorio y, mientras persista, puede provocar la propagación de señales no válidas dentro del sistema digital durante un breve período de tiempo.

Dado que los circuitos digitales están hechos de componentes analógicos, los circuitos digitales calculan más lentamente que los circuitos analógicos de baja precisión que utilizan una cantidad similar de espacio y potencia. Sin embargo, el circuito digital calculará de manera más repetible, debido a su alta inmunidad al ruido. Por otro lado, en el dominio de alta precisión (por ejemplo, donde se necesitan 14 o más bits de precisión), los circuitos analógicos requieren mucha más potencia y área que los equivalentes digitales.

Herramientas de diseño automatizadas [ editar ]

Para ahorrar costosos esfuerzos de ingeniería, gran parte del esfuerzo de diseñar grandes máquinas lógicas se ha automatizado. Los programas de computadora se denominan " herramientas de automatización de diseño electrónico " o simplemente "EDA".

Las descripciones simples de lógica de estilo de tabla de verdad a menudo se optimizan con EDA que produce automáticamente sistemas reducidos de puertas lógicas o tablas de búsqueda más pequeñas que aún producen los resultados deseados. El ejemplo más común de este tipo de software es el minimizador lógico heurístico de Espresso .

La mayoría de los algoritmos prácticos para optimizar grandes sistemas lógicos utilizan manipulaciones algebraicas o diagramas de decisión binarios , y existen experimentos prometedores con algoritmos genéticos y optimizaciones de recocido .

Para automatizar costosos procesos de ingeniería, algunos EDA pueden tomar tablas de estados que describen máquinas de estados y producir automáticamente una tabla de verdad o una tabla de funciones para la lógica combinacional de una máquina de estados. La tabla de estado es un fragmento de texto que enumera cada estado, junto con las condiciones que controlan las transiciones entre ellos y las señales de salida correspondientes.

Es común que las tablas de funciones de tales máquinas de estado generadas por computadora se optimicen con software de minimización lógica como Minilog .

A menudo, los sistemas lógicos reales se diseñan como una serie de subproyectos, que se combinan mediante un "flujo de herramientas". El flujo de herramientas suele ser un "script", un lenguaje informático simplificado que puede invocar las herramientas de diseño de software en el orden correcto.

Los flujos de herramientas para grandes sistemas lógicos, como los microprocesadores, pueden tener miles de comandos y combinar el trabajo de cientos de ingenieros.

La escritura y depuración de flujos de herramientas es una especialidad de ingeniería establecida en empresas que producen diseños digitales. El flujo de herramientas generalmente termina en un archivo informático detallado o en un conjunto de archivos que describen cómo construir físicamente la lógica. A menudo, consta de instrucciones para dibujar los transistores y los cables en un circuito integrado o en una placa de circuito impreso .

Partes de los flujos de herramientas se "depuran" verificando las salidas de la lógica simulada con las entradas esperadas. Las herramientas de prueba toman archivos de computadora con conjuntos de entradas y salidas y resaltan las discrepancias entre el comportamiento simulado y el comportamiento esperado.

Una vez que se cree que los datos de entrada son correctos, aún se debe verificar la exactitud del diseño en sí. Algunos flujos de herramientas verifican los diseños produciendo primero un diseño y luego escaneando el diseño para producir datos de entrada compatibles para el flujo de herramientas. Si los datos escaneados coinciden con los datos de entrada, es probable que el flujo de herramientas no haya introducido errores.

Los datos de verificación funcional se denominan habitualmente "vectores de prueba". Los vectores de prueba funcionales se pueden conservar y usar en la fábrica para probar que la lógica recién construida funciona correctamente. Sin embargo, los patrones de prueba funcionales no descubren fallas de fabricación comunes. Las pruebas de producción a menudo se diseñan mediante herramientas de software llamadas " generadores de patrones de prueba ". Estos generan vectores de prueba examinando la estructura de la lógica y generando pruebas sistemáticamente para fallas particulares. De esta manera, la cobertura de fallas puede acercarse al 100%, siempre que el diseño se pueda probar adecuadamente (consulte la siguiente sección).

Una vez que existe un diseño, y se verifica y se puede probar, a menudo es necesario procesarlo para que también se pueda fabricar. Los circuitos integrados modernos tienen características más pequeñas que la longitud de onda de la luz utilizada para exponer el fotorresistente. El software de fabricación agrega patrones de interferencia a las máscaras de exposición para eliminar los circuitos abiertos y mejorar el contraste de las máscaras.

Diseño para capacidad de prueba [ editar ]

Hay varias razones para probar un circuito lógico. Cuando se desarrolla el circuito por primera vez, es necesario verificar que el circuito de diseño cumpla con las especificaciones funcionales y de temporización requeridas. Cuando se fabrican varias copias de un circuito correctamente diseñado, es fundamental probar cada copia para asegurarse de que el proceso de fabricación no ha introducido ningún defecto. [45]

Una máquina lógica grande (digamos, con más de cien variables lógicas) puede tener un número astronómico de estados posibles. Obviamente, en la fábrica, probar cada estado no es práctico si probar cada estado toma un microsegundo, y hay más estados que el número de microsegundos desde que comenzó el universo. Este caso que suena ridículo es típico.

Las máquinas lógicas grandes casi siempre se diseñan como conjuntos de máquinas lógicas más pequeñas. Para ahorrar tiempo, las submáquinas más pequeñas se aíslan mediante circuitos de "diseño para prueba" instalados permanentemente y se prueban de forma independiente.

Un esquema de prueba común conocido como "diseño de escaneo" mueve los bits de prueba en serie (uno tras otro) desde el equipo de prueba externo a través de uno o más registros de desplazamiento en serie conocidos como "cadenas de escaneo". Los escaneos en serie tienen solo uno o dos cables para transportar los datos y minimizan el tamaño físico y el costo de la lógica de prueba que se usa con poca frecuencia.

Una vez que todos los bits de datos de prueba están en su lugar, el diseño se reconfigura para estar en "modo normal" y se aplican uno o más pulsos de reloj, para probar fallas (por ejemplo, atascado en bajo o atascado en alto) y capturar la prueba. resultan en flip-flops y / o pestillos en los registros de desplazamiento de exploración. Finalmente, el resultado de la prueba se desplaza hacia el límite del bloque y se compara con el resultado de "buena máquina" pronosticado.

En un entorno de prueba de placa, las pruebas de serie a paralelo se han formalizado con un estándar llamado " JTAG " (llamado así por el "Grupo de Acción de Prueba Conjunta" que lo hizo).

Otro esquema de prueba común proporciona un modo de prueba que obliga a alguna parte de la máquina lógica a entrar en un "ciclo de prueba". El ciclo de prueba generalmente ejercita grandes partes independientes de la máquina.

Compensación [ editar ]

Varios números determinan la practicidad de un sistema de lógica digital: costo, confiabilidad, distribución y velocidad. Los ingenieros exploraron numerosos dispositivos electrónicos para obtener una combinación favorable de estas personalidades.

Costo [ editar ]

El costo de una puerta lógica es crucial, principalmente porque se necesitan muchas puertas para construir una computadora u otro sistema digital avanzado y porque cuantas más puertas se pueden usar, más capaz y / o respondedora puede volverse la máquina. Dado que la mayor parte de una computadora digital es simplemente una red interconectada de puertas lógicas, el costo total de construir una computadora se correlaciona fuertemente con el precio por puerta lógica. En la década de 1930, los primeros sistemas lógicos digitales se construyeron a partir de relés telefónicos porque eran económicos y relativamente fiables. Después de eso, los ingenieros eléctricos siempre usaron los interruptores electrónicos disponibles más baratos que aún podían cumplir con los requisitos.

Los primeros circuitos integrados fueron un feliz accidente. Fueron construidos no para ahorrar dinero, sino para ahorrar peso, y permitir que la computadora de guía Apollo controle un sistema de guía inercial para una nave espacial. Las primeras puertas lógicas de circuito integrado costaron casi $ 50 (en dólares de 1960, cuando un ingeniero ganaba $ 10,000 / año). Para sorpresa de muchos involucrados, cuando los circuitos se produjeron en masa, se habían convertido en el método menos costoso de construir lógica digital. Las mejoras en esta tecnología han impulsado todas las mejoras posteriores en el costo.

Con el auge de los circuitos integrados , la reducción del número absoluto de chips utilizados representó otra forma de ahorrar costos. El objetivo de un diseñador no es solo hacer el circuito más simple, sino mantener la cuenta regresiva de los componentes. A veces, esto da como resultado diseños más complicados con respecto a la lógica digital subyacente, pero sin embargo reduce la cantidad de componentes, el tamaño de la placa e incluso el consumo de energía. Un motivo principal para reducir la cantidad de componentes en las placas de circuito impreso es reducir la tasa de defectos de fabricación y aumentar la confiabilidad, ya que cada conexión soldada es potencialmente mala, por lo que las tasas de defectos y fallas tienden a aumentar junto con el número total de pines de componentes.

Por ejemplo, en algunas familias lógicas, las puertas NAND son las puertas digitales más simples de construir. Todas las demás operaciones lógicas se pueden implementar mediante puertas NAND. Si un circuito ya requiere una sola puerta NAND, y un solo chip normalmente lleva cuatro puertas NAND, entonces las puertas restantes podrían usarse para implementar otras operaciones lógicas como lógica y . Esto podría eliminar la necesidad de un chip separado que contenga esos diferentes tipos de puertas.

Fiabilidad [ editar ]

La "confiabilidad" de una puerta lógica describe su tiempo medio entre fallas (MTBF). Las máquinas digitales suelen tener millones de puertas lógicas. Además, la mayoría de las máquinas digitales están "optimizadas" para reducir su costo. El resultado es que, a menudo, la falla de una sola puerta lógica hará que una máquina digital deje de funcionar. Es posible diseñar máquinas para que sean más confiables mediante el uso de lógica redundante que no funcionará mal como resultado de la falla de una sola puerta (o incluso de dos, tres o cuatro puertas), pero esto necesariamente implica el uso de más componentes, lo que eleva el coste económico y también suele incrementar el peso de la máquina y puede incrementar la potencia que consume.

Las máquinas digitales se volvieron útiles por primera vez cuando el MTBF de un conmutador superó unos pocos cientos de horas. Aun así, muchas de estas máquinas tenían procedimientos de reparación complejos y bien ensayados, y no funcionarían durante horas porque un tubo se quemó o una polilla se atascó en un relé. Las puertas lógicas modernas de circuitos integrados transistorizados tienen MTBF superiores a 82 mil millones de horas (8,2 · 10 10  horas), [46] y las necesitan porque tienen muchas puertas lógicas.

Fanout [ editar ]

Fanout describe cuántas entradas lógicas se pueden controlar mediante una sola salida lógica sin exceder las clasificaciones de corriente eléctrica de las salidas de la puerta. [47] La distribución mínima práctica es de cinco. Las puertas lógicas electrónicas modernas que utilizan transistores CMOS para interruptores tienen fanouts cerca de cincuenta y, a veces, pueden ir mucho más alto.

Velocidad [ editar ]

La "velocidad de conmutación" describe cuántas veces por segundo un inversor (una representación electrónica de una función "no lógica") puede cambiar de verdadero a falso y viceversa. Una lógica más rápida puede realizar más operaciones en menos tiempo. La lógica digital se volvió útil por primera vez cuando las velocidades de conmutación superaron los 50  Hz , porque eso era más rápido que un equipo de humanos operando calculadoras mecánicas. La lógica digital electrónica moderna conmuta rutinariamente a 5  GHz (5 · 10 9  Hz), y algunos sistemas de laboratorio cambian a más de 1  THz (1 · 10 12  Hz) [ cita requerida ] .

Familias lógicas [ editar ]

El diseño comenzó con relés . La lógica de retransmisión era relativamente económica y fiable, pero lenta. Ocasionalmente se produciría una falla mecánica. Los abanicos eran típicamente de alrededor de 10, limitados por la resistencia de las bobinas y el arco en los contactos debido a altos voltajes.

Posteriormente se utilizaron tubos de vacío . Estos eran muy rápidos, pero generaban calor y no eran confiables porque los filamentos se quemarían. Los abanicos eran típicamente de 5 ... 7, limitados por el calentamiento de la corriente de los tubos. En la década de 1950, se desarrollaron "tubos de computadora" especiales con filamentos que omitían elementos volátiles como el silicio. Estos funcionaron durante cientos de miles de horas.

La primera familia lógica de semiconductores fue la lógica resistor-transistor . Esto era mil veces más confiable que los tubos, funcionaba más frío y usaba menos energía, pero tenía un ventilador de entrada muy bajo de 3. La lógica diodo-transistor mejoró el ventilador de salida hasta aproximadamente 7 y redujo la potencia. Algunos diseños de DTL utilizaron dos fuentes de alimentación con capas alternas de transistores NPN y PNP para aumentar la distribución.

La lógica transistor-transistor (TTL) fue una gran mejora con respecto a estos. En los primeros dispositivos, el fanout mejoró a 10 y las variaciones posteriores alcanzaron de manera confiable 20. TTL también fue rápido, con algunas variaciones que lograron tiempos de conmutación tan bajos como 20 ns. TTL todavía se usa en algunos diseños.

La lógica acoplada al emisor es muy rápida pero consume mucha energía. Se usó ampliamente para computadoras de alto rendimiento compuestas por muchos componentes de mediana escala (como el Illiac IV ).

Con mucho, los circuitos integrados digitales más comunes construidos en la actualidad utilizan lógica CMOS , que es rápida, ofrece alta densidad de circuitos y baja potencia por puerta. Esto se usa incluso en computadoras grandes y rápidas, como IBM System z .

Desarrollos recientes [ editar ]

En 2009, los investigadores descubrieron que los memristores pueden implementar un almacenamiento de estado booleano (similar a un flip flop , implicación e inversión lógica ), proporcionando una familia lógica completa con cantidades muy pequeñas de espacio y potencia, utilizando procesos de semiconductores CMOS familiares. [48]

El descubrimiento de la superconductividad ha permitido el desarrollo de la tecnología de circuito cuántico de flujo único rápido (RSFQ), que utiliza uniones Josephson en lugar de transistores. Más recientemente, se están realizando intentos para construir sistemas informáticos puramente ópticos capaces de procesar información digital utilizando elementos ópticos no lineales .

Ver también [ editar ]

  • álgebra de Boole
  • Lógica combinacional
  • Leyes de de Morgan
  • Verificación formal
  • Lenguaje de descripción de hardware
  • Circuito integrado
  • Esfuerzo lógico
  • Familia lógica
  • Puerta lógica
  • Minimización lógica
  • Simulación lógica
  • Microelectrónica
  • El sonar
  • Lógica secuencial
  • Claude E. Shannon
  • Pestillo transparente
  • Computación no convencional

Notas [ editar ]

  1. ^ Un ejemplo de una computadora digital asincrónica temprana fue la Jaincomp-B1 fabricada por Jacobs Instrument Company en 1951, que permitía una frecuencia de reloj extremadamente alta y ofrecía un rendimiento de una unidad de tubo subminiatura de 110 lb. típicamente computadoras del tamaño de una habitación de su época. [42]
  2. ^ Alternativamente, las salidas de varios elementos pueden conectarse a un bus a través de búferes que pueden apagar la salida de todos los dispositivos excepto uno.

Referencias [ editar ]

  1. ^ Nulo, Linda; Lobur, Julia (2006). Los fundamentos de la organización y la arquitectura informática . Editores Jones & Bartlett. pag. 121 . ISBN 978-0-7637-3769-6. Podemos construir diagramas lógicos (que a su vez conducen a circuitos digitales) para cualquier expresión booleana ...
  2. ^ Peirce, CS, "Carta, Peirce a A. Marquand ", con fecha de 1886, Escritos de Charles S. Peirce , v. 5, 1993, págs. 541–3. Vista previa de Google. Véase Burks, Arthur W. , "Revisión: Charles S. Peirce, Los nuevos elementos de las matemáticas ", Boletín de la Sociedad Americana de Matemáticas v. 84, n. 5 (1978), págs. 913-18, véase 917. PDF Eprint .
  3. ^ En 1946, ENIAC requirió un estimado de 174 kW. En comparación, una computadora portátil moderna puede usar alrededor de 30 W; casi seis mil veces menos. "Uso aproximado de energía de escritorio y portátil" . Universidad de Pennsylvania. Archivado desde el original el 3 de junio de 2009 . Consultado el 20 de junio de 2009 .
  4. ^ "Un pionero de la informática redescubierto, 50 años después" . The New York Times . 20 de abril de 1994.
  5. ^ Lee, Thomas H. (2003). El diseño de circuitos integrados de radiofrecuencia CMOS (PDF) . Prensa de la Universidad de Cambridge . ISBN  9781139643771.
  6. ^ Puers, Robert; Baldi, Livio; Voorde, Marcel Van de; Nooten, Sebastiaan E. van (2017). Nanoelectrónica: materiales, dispositivos, aplicaciones, 2 volúmenes . John Wiley e hijos . pag. 14. ISBN 9783527340538.
  7. ^ Lavington, Simon (1998), A History of Manchester Computers (2 ed.), Swindon: The British Computer Society, págs. 34-35
  8. ^ "El chip que construyó Jack" . Instrumentos Texas. 2008 . Consultado el 29 de mayo de 2008 .
  9. ^ Bassett, Ross Knox (2007). Hacia la era digital: laboratorios de investigación, empresas emergentes y el auge de la tecnología MOS . Prensa de la Universidad Johns Hopkins. pag. 46. ISBN 9780801886393.
  10. ^ "1960 - Transistor de semiconductor de óxido de metal (MOS) demostrado" . El motor de silicio . Museo de Historia de la Computación .
  11. ^ a b "¿Quién inventó el transistor?" . Museo de Historia de la Computación . 4 de diciembre de 2013 . Consultado el 20 de julio de 2019 .
  12. ^ a b c "Triunfo del transistor MOS" . YouTube . Museo de Historia de la Computación . 6 de agosto de 2010 . Consultado el 21 de julio de 2019 .
  13. Motoyoshi, M. (2009). "Through-Silicon Via (TSV)". Actas del IEEE . 97 (1): 43–48. doi : 10.1109 / JPROC.2008.2007462 . ISSN 0018-9219 . S2CID 29105721 .  
  14. ^ "Tortuga de transistores gana la carrera - revolución CHM" . Museo de Historia de la Computación . Consultado el 22 de julio de 2019 .
  15. ^ "Los transistores mantienen viva la ley de Moore" . EETimes . 12 de diciembre de 2018 . Consultado el 18 de julio de 2019 .
  16. ^ a b "Aplicación de MOSFET a los diseños de conmutación de energía de hoy" . Diseño Electrónico . 23 de mayo de 2016 . Consultado el 10 de agosto de 2019 .
  17. ^ B. SOMANATHAN NAIR (2002). Diseño de lógica y electrónica digital . PHI Learning Pvt. Ltd. p. 289. ISBN 9788120319561. Las señales digitales son pulsos de ancho fijo, que ocupan solo uno de los dos niveles de amplitud.
  18. ^ Joseph Migga Kizza (2005). Seguridad de la red informática . Springer Science & Business Media. ISBN 9780387204734.
  19. ^ 2000 problemas resueltos en electrónica digital . Educación de Tata McGraw-Hill . 2005. p. 151. ISBN 978-0-07-058831-8.
  20. ^ Chan, Yi-Jen (1992). Estudios de FET's de heteroestructura de InAIAs / InGaAs y GaInP / GaAs para aplicaciones de alta velocidad . Universidad de Michigan . pag. 1. El Si MOSFET ha revolucionado la industria de la electrónica y, como resultado, impacta nuestra vida diaria en casi todas las formas imaginables.
  21. ^ Grant, Duncan Andrew; Gowar, John (1989). Power MOSFETS: teoría y aplicaciones . Wiley . pag. 1. ISBN 9780471828679. El transistor de efecto de campo semiconductor de óxido metálico (MOSFET) es el dispositivo activo más utilizado en la integración a gran escala de circuitos integrados digitales (VLSI). Durante la década de 1970, estos componentes revolucionaron el procesamiento de señales electrónicas, los sistemas de control y las computadoras.
  22. ^ Golio, Mike; Golio, Janet (2018). Tecnologías pasivas y activas de RF y microondas . Prensa CRC . págs. 18-2. ISBN 9781420006728.
  23. ^ Raymer, Michael G. (2009). The Silicon Web: Física para la era de Internet . Prensa CRC . pag. 365. ISBN 9781439803127.
  24. ^ Wong, Kit Po (2009). Ingeniería eléctrica - Volumen II . Publicaciones EOLSS . pag. 7. ISBN 9781905839780.
  25. ^ Hittinger, William C. (1973). "Tecnología de semiconductores de óxido de metal". Scientific American . 229 (2): 48–59. Código bibliográfico : 1973SciAm.229b..48H . doi : 10.1038 / scientificamerican0873-48 . ISSN 0036-8733 . JSTOR 24923169 .  
  26. ^ Peter Clarke (14 de octubre de 2005). "Intel entra en la era de los procesadores de mil millones de transistores" . EE Times .
  27. ^ "13 sextillones y contando: el camino largo y sinuoso hacia el artefacto humano fabricado con más frecuencia en la historia" . Museo de Historia de la Computación . 2 de abril de 2018 . Consultado el 12 de octubre de 2020 .
  28. ^ Golio, Mike; Golio, Janet (2018). Tecnologías pasivas y activas de RF y microondas . Prensa CRC . págs. ix, I-1, 18-2. ISBN 9781420006728.
  29. ^ Rappaport, TS (noviembre de 1991). "La revolución inalámbrica". Revista de comunicaciones IEEE . 29 (11): 52–71. doi : 10.1109 / 35.109666 . S2CID 46573735 . 
  30. ^ "La revolución inalámbrica" . The Economist . 21 de enero de 1999 . Consultado el 12 de septiembre de 2019 .
  31. ^ Ahmed, Nasir (enero de 1991). "Cómo se me ocurrió la transformada discreta del coseno" . Procesamiento de señales digitales . 1 (1): 4–5. doi : 10.1016 / 1051-2004 (91) 90086-Z .
  32. ↑ a b Lea, William (1994). Vídeo a la carta: Documento de investigación 94/68 . 9 de mayo de 1994: Biblioteca de la Cámara de los Comunes . Archivado desde el original el 20 de septiembre de 2019 . Consultado el 20 de septiembre de 2019 .Mantenimiento de CS1: ubicación ( enlace )
  33. ^ Frolov, Artem; Primechaev, S. (2006). "Recuperaciones de imágenes de dominio comprimido basadas en procesamiento DCT". Académico semántico . S2CID 4553 . 
  34. ^ Lee, Ruby Bei-Loh; Beck, John P .; Cordero, Joel; Severson, Kenneth E. (abril de 1995). "Decodificador de vídeo MPEG de software en tiempo real en procesadores PA 7100LC mejorados multimedia" (PDF) . Diario de Hewlett-Packard . 46 (2). ISSN 0018-1153 .  
  35. ↑ a b Stanković, Radomir S .; Astola, Jaakko T. (2012). "Reminiscencias de los primeros trabajos en DCT: Entrevista con KR Rao" (PDF) . Reimpresiones de los primeros días de las ciencias de la información . 60 . Consultado el 13 de octubre de 2019 .
  36. ^ Luo, Fa-Long (2008). Estándares de radiodifusión multimedia móvil: tecnología y práctica . Springer Science & Business Media . pag. 590. ISBN 9780387782638.
  37. ^ Britanak, V. (2011). "Sobre propiedades, relaciones e implementación simplificada de bancos de filtros en los estándares de codificación de audio Dolby Digital (Plus) AC-3". Transacciones IEEE sobre procesamiento de audio, habla y lenguaje . 19 (5): 1231-1241. doi : 10.1109 / TASL.2010.2087755 . S2CID 897622 . 
  38. ^ Shishikui, Yoshiaki; Nakanishi, Hiroshi; Imaizumi, Hiroyuki (26 al 28 de octubre de 1993). "Un esquema de codificación de HDTV utilizando DCT de dimensión adaptativa" . Procesamiento de señales de HDTV: Actas del Taller internacional sobre HDTV '93, Ottawa, Canadá . Elsevier : 611–618. doi : 10.1016 / B978-0-444-81844-7.50072-3 . ISBN 9781483298511.
  39. ^ Mateo, Crick (2016). Poder, vigilancia y cultura en la esfera digital de YouTube ™ . IGI Global. págs. 36–7. ISBN 9781466698567.
  40. ^ Paul Horowitz y Winfield Hill, El arte de la electrónica 2ª Ed. Cambridge University Press, Cambridge, 1989 ISBN 0-521-37095-7 página 471 
  41. ^ Maini. AK (2007). Principios, dispositivos y aplicaciones de la electrónica digital. Chichester, Inglaterra .: John Wiley & Sons Ltd.
  42. ^ Simposio del Pentágono: Computadoras digitales electrónicas de uso general disponibles comercialmente de precio moderado , Washington, DC, 14 de mayo de 1952
  43. ^ "ASODA sync / async DLX Core" . OpenCores.org . Consultado el 5 de septiembre de 2014 .
  44. ^ a b Clarke, Peter. "ARM ofrece el primer núcleo de procesador sin reloj" . eetimes.com . UBM Tech (Universal Business Media) . Consultado el 5 de septiembre de 2014 .
  45. ^ Brown S y Vranesic Z. (2009). Fundamentos de lógica digital con diseño VHDL. 3ª ed. Nueva York, NY: Mc Graw Hill.
  46. ^ Aviso 2 de MIL-HDBK-217F, sección 5.3, para circuitos integrados comerciales CMOS de 0,8 micrómetros de puerta de 100.000 a 40 ° C; Las tasas de falla en 2010 son mejores, porque los tamaños de las líneas han disminuido a 0.045 micrómetros y se necesitan menos conexiones fuera del chip por puerta.
  47. ^ Kleitz, William. (2002). Fundamentos digitales y de microprocesadores: teoría y aplicación. 4ª ed. Upper Saddler Reviver, Nueva Jersey: Pearson / Prentice Hall
  48. ^ Eero Lehtonen, Mika Laihom, "Lógica de implicación con estado con memristores", Actas del Simposio internacional IEEE / ACM de 2009 sobre arquitecturas a nanoescala IEEE Computer Society Washington, DC, EE. UU. © 2009 Consultado 2011-12-11

Lectura adicional [ editar ]

  • Douglas Lewin, Diseño lógico de circuitos de conmutación , Nelson, 1974.
  • RH Katz, Diseño lógico contemporáneo , The Benjamin / Cummings Publishing Company, 1994.
  • PK Lala, Diseño y prueba de lógica digital práctica , Prentice Hall, 1996.
  • YK Chan y SY Lim, Progress in Electromagnetics Research B, vol. 1, 269–290, 2008, "Generación de señales de radar de apertura sintética (SAR), Facultad de Ingeniería y Tecnología, Universidad Multimedia, Jalan Ayer Keroh Lama, Bukit Beruang, Melaka 75450, Malasia.

Enlaces externos [ editar ]

  • Proyectos de circuitos digitales: una descripción general de los circuitos digitales mediante la implementación de circuitos integrados (2014)
  • Lecciones de Circuitos Eléctricos - Volumen IV (Digital)
  • Introducción a OpenCourseWare del MIT a los materiales de la clase de diseño digital ("6.004: Estructuras de cálculo")