De Wikipedia, la enciclopedia libre
Saltar a navegación Saltar a búsqueda
Un chip procesador de señal digital TMS320 que se encuentra en una unidad de efectos de guitarra . Arriba se puede ver un oscilador de cristal .

Un procesador de señales digitales ( DSP ) es un chip de microprocesador especializado , con su arquitectura optimizada para las necesidades operativas del procesamiento de señales digitales . [1] [2] Los DSP se fabrican en chips de circuitos integrados MOS . [3] [4] Se utilizan ampliamente en el procesamiento de señales de audio , telecomunicaciones , procesamiento de imágenes digitales , radar , sonar y sistemas de reconocimiento de voz , y en dispositivos electrónicos de consumo comunes comoteléfonos móviles , unidades de disco y productos de televisión de alta definición (HDTV). [3]

El objetivo de un DSP suele ser medir, filtrar o comprimir señales analógicas continuas del mundo real . La mayoría de los microprocesadores de propósito general también pueden ejecutar algoritmos de procesamiento de señales digitales con éxito, pero es posible que no puedan mantenerse al día con dicho procesamiento de forma continua en tiempo real. Además, los DSP dedicados suelen tener una mejor eficiencia energética, por lo que son más adecuados en dispositivos portátiles como teléfonos móviles debido a las limitaciones de consumo de energía. [5] Los DSP a menudo usan arquitecturas de memoria especiales que pueden obtener múltiples datos o instrucciones al mismo tiempo. Los DSP a menudo también implementan tecnología de compresión de datos , con la transformada de coseno discreta (DCT), en particular, es una tecnología de compresión ampliamente utilizada en los DSP.

Resumen [ editar ]

Un sistema de procesamiento digital típico

Los algoritmos de procesamiento de señales digitales normalmente requieren que se realice una gran cantidad de operaciones matemáticas de forma rápida y repetida en una serie de muestras de datos. Las señales (quizás de sensores de audio o video) se convierten constantemente de analógicas a digitales, se manipulan digitalmente y luego se vuelven a convertir a la forma analógica. Muchas aplicaciones DSP tienen limitaciones de latencia ; es decir, para que el sistema funcione, la operación de DSP debe completarse dentro de un tiempo fijo y el procesamiento diferido (o por lotes) no es viable.

La mayoría de los microprocesadores y sistemas operativos de uso general pueden ejecutar algoritmos DSP con éxito, pero no son adecuados para su uso en dispositivos portátiles como teléfonos móviles y PDA debido a limitaciones de eficiencia energética. [5] Sin embargo, un DSP especializado tenderá a proporcionar una solución de menor costo, con mejor rendimiento, menor latencia y sin requisitos de enfriamiento especializado o baterías grandes. [ cita requerida ]

Tales mejoras en el rendimiento han llevado a la introducción del procesamiento de señales digitales en satélites de comunicaciones comerciales donde se requieren cientos o incluso miles de filtros analógicos, conmutadores, convertidores de frecuencia, etc. para recibir y procesar las señales de enlace ascendente y prepararlas para el enlace descendente , y pueden ser reemplazado con DSP especializados con beneficios significativos para el peso de los satélites, el consumo de energía, la complejidad / costo de construcción, la confiabilidad y la flexibilidad de operación. Por ejemplo, los satélites SES-12 y SES-14 del operador SES lanzados en 2018, fueron construidos por Airbus Defence and Space con un 25% de capacidad utilizando DSP. [6]

La arquitectura de un DSP está optimizada específicamente para el procesamiento de señales digitales. La mayoría también admite algunas de las funciones como procesador de aplicaciones o microcontrolador, ya que el procesamiento de señales rara vez es la única tarea de un sistema. Algunas características útiles para optimizar los algoritmos DSP se describen a continuación.

Arquitectura [ editar ]

Arquitectura de software [ editar ]

Según los estándares de los procesadores de uso general, los conjuntos de instrucciones DSP suelen ser muy irregulares; mientras que los conjuntos de instrucciones tradicionales se componen de instrucciones más generales que les permiten realizar una variedad más amplia de operaciones, los conjuntos de instrucciones optimizados para el procesamiento de señales digitales contienen instrucciones para operaciones matemáticas comunes que ocurren con frecuencia en los cálculos DSP. Tanto los conjuntos de instrucciones tradicionales como los optimizados para DSP pueden calcular cualquier operación arbitraria, pero una operación que requiera varias instrucciones ARM o x86 para calcular puede requerir solo una instrucción en un conjunto de instrucciones optimizadas para DSP.

Una implicación para la arquitectura de software es que las rutinas de código de ensamblaje optimizadas a mano (programas de ensamblaje) se empaquetan comúnmente en bibliotecas para su reutilización, en lugar de depender de tecnologías de compilación avanzadas para manejar algoritmos esenciales. Incluso con las optimizaciones del compilador modernas, el código ensamblador optimizado a mano es más eficiente y muchos algoritmos comunes involucrados en los cálculos DSP están escritos a mano para aprovechar al máximo las optimizaciones arquitectónicas.

Conjuntos de instrucciones [ editar ]

  • operaciones de multiplicar-acumular (MAC, incluidas las operaciones fusionadas de multiplicar-agregar , FMA)
    • Se utiliza ampliamente en todo tipo de operaciones matriciales.
      • convolución para filtrar
      • producto escalar
      • evaluación polinomial
    • Los algoritmos DSP fundamentales dependen en gran medida del rendimiento de acumulación y multiplicación
      • Filtros FIR
      • Transformada rápida de Fourier (FFT)
  • instrucciones relacionadas:
    • SIMD
    • VLIW
  • Instrucciones especializadas para direccionamiento de módulo en búferes de anillo y modo de direccionamiento con inversión de bits para referencias cruzadas FFT
  • Los DSP a veces usan codificación estacionaria en el tiempo para simplificar el hardware y aumentar la eficiencia de la codificación. [ cita requerida ]
  • Varias unidades aritméticas pueden requerir arquitecturas de memoria para admitir varios accesos por ciclo de instrucción, lo que generalmente admite la lectura de 2 valores de datos de 2 buses de datos separados y la siguiente instrucción (de la memoria caché de instrucciones o una tercera memoria de programa) simultáneamente. [7] [8] [9] [10]
  • Controles de bucle especiales, como soporte arquitectónico para ejecutar unas pocas palabras de instrucción en un bucle muy estrecho sin sobrecarga para la obtención de instrucciones o pruebas de salida, como bucles de cero sobrecarga [11] [12] y buffers de bucle de hardware. [13] [14]

Instrucciones de datos [ editar ]

  • Aritmética de saturación , en la que las operaciones que producen desbordamientos se acumularán en los valores máximos (o mínimos) que el registro puede contener en lugar de envolver (el máximo + 1 no se desborda al mínimo como en muchas CPU de propósito general, sino que permanece en máximo). A veces, se encuentran disponibles varios modos de operación de bits adhesivos.
  • La aritmética de punto fijo se usa a menudo para acelerar el procesamiento aritmético
  • Operaciones de ciclo único para aumentar los beneficios de la canalización

Flujo del programa [ editar ]

  • Unidad de coma flotante integrada directamente en la ruta de datos
  • Arquitectura canalizada
  • Multiplicadores-acumuladores altamente paralelos (unidades MAC)
  • Hardware controlado en bucle , para reducir o eliminar la sobrecarga necesaria para las operaciones de bucle

Arquitectura de hardware [ editar ]

En ingeniería, la arquitectura de hardware se refiere a la identificación de los componentes físicos de un sistema y sus interrelaciones. Esta descripción, a menudo denominada modelo de diseño de hardware, permite a los diseñadores de hardware comprender cómo encajan sus componentes en la arquitectura de un sistema y proporciona a los diseñadores de componentes de software información importante necesaria para el desarrollo y la integración de software. La definición clara de una arquitectura de hardware permite que las diversas disciplinas tradicionales de la ingeniería (por ejemplo, ingeniería eléctrica y mecánica) trabajen juntas de manera más eficaz para desarrollar y fabricar nuevas máquinas, dispositivos y componentes.

El hardware es también una expresión que se utiliza en la industria de la ingeniería informática para distinguir explícitamente el hardware (de la computadora electrónica) del software que se ejecuta en él. Pero el hardware, dentro de las disciplinas de automatización e ingeniería de software, no tiene por qué ser simplemente una computadora de algún tipo. Un automóvil moderno ejecuta mucho más software que la nave espacial Apollo. Además, las aeronaves modernas no pueden funcionar sin ejecutar decenas de millones de instrucciones informáticas integradas y distribuidas por toda la aeronave y residentes tanto en hardware informático estándar como en componentes de hardware especializados, como puertas lógicas IC cableadas, dispositivos analógicos e híbridos y otros componentes digitales. La necesidad de modelar eficazmente cómo se combinan los componentes físicos separados para formar sistemas complejos es importante en una amplia gama de aplicaciones, incluidas las computadoras,asistentes digitales personales (PDA), teléfonos móviles, instrumentación quirúrgica, satélites y submarinos.

Arquitectura de memoria [ editar ]

Los DSP generalmente están optimizados para la transmisión de datos y usan arquitecturas de memoria especiales que pueden obtener múltiples datos o instrucciones al mismo tiempo, como la arquitectura de Harvard o la arquitectura de von Neumann modificada , que usan memorias de datos y programas separados (a veces incluso acceso simultáneo en múltiples buses de datos).

Los DSP a veces pueden confiar en el código de soporte para conocer las jerarquías de caché y los retrasos asociados. Esta es una compensación que permite un mejor rendimiento [ aclaración necesaria ] . Además, se emplea un uso extensivo de DMA .

Direccionamiento y memoria virtual [ editar ]

Los DSP utilizan con frecuencia sistemas operativos multitarea, pero no son compatibles con la memoria virtual o la protección de la memoria. Los sistemas operativos que usan memoria virtual requieren más tiempo para el cambio de contexto entre procesos , lo que aumenta la latencia.

  • Direccionamiento de módulo de hardware
    • Permite que se implementen búferes circulares sin tener que probar el envoltorio
  • Direccionamiento con inversión de bits, un modo de direccionamiento especial
    • útil para calcular FFT
  • Exclusión de una unidad de gestión de memoria
  • Unidad de generación de direcciones

Historia [ editar ]

Antecedentes [ editar ]

Antes de la llegada de los chips procesadores de señales digitales independientes (DSP) , las primeras aplicaciones de procesamiento de señales digitales se implementaban típicamente utilizando chips de segmentos de bits . El chip AMD 2901 bit-slice con su familia de componentes fue una elección muy popular. Había diseños de referencia de AMD, pero muy a menudo los detalles de un diseño en particular eran específicos de la aplicación. Estas arquitecturas de segmentos de bits a veces incluirían un chip multiplicador de periféricos. Ejemplos de estos multiplicadores fueron una serie de TRW que incluía el TDC1008 y el TDC1010, algunos de los cuales incluían un acumulador, que proporcionaba la función de multiplicar-acumular (MAC) requerida .

El procesamiento de señales electrónicas se revolucionó en la década de 1970 con la amplia adopción del MOSFET (transistor de efecto de campo de semiconductor de óxido metálico, o transistor MOS), [15] La tecnología de circuito integrado MOS fue la base de los primeros microprocesadores y microcontroladores de un solo chip. a principios de la década de 1970, [16] y luego los primeros DSP de un solo chip a fines de la década de 1970. [3] [4]

Otro desarrollo importante en el procesamiento de señales digitales fue la compresión de datos . La codificación predictiva lineal (LPC) fue desarrollada por primera vez por Fumitada Itakura de la Universidad de Nagoya y Shuzo Saito de Nippon Telegraph and Telephone (NTT) en 1966, y luego desarrollada por Bishnu S. Atal y Manfred R. Schroeder en Bell Labs durante los primeros años. a mediados de la década de 1970, convirtiéndose en la base de los primeros chips DSP de sintetizador de voz a fines de la década de 1970. [17] La transformada de coseno discreta (DCT) fue propuesta por primera vez por Nasir Ahmeda principios de la década de 1970, y desde entonces se ha implementado ampliamente en chips DSP, y muchas empresas desarrollan chips DSP basados ​​en tecnología DCT. DCT son ampliamente utilizados para la codificación , decodificación, codificación de vídeo , de codificación de audio , la multiplexación , las señales de control, de señalización , de analógico a digital , el formato de luminancia diferencias y el color, y formatos de color tales como YUV444 y YUV411 . DCT también se utilizan para operaciones de codificación, tales como estimación de movimiento , la compensación de movimiento , entre tramas de predicción, de cuantificación, ponderación perceptual, codificación de entropía , codificación de variables y vectores de movimiento , y operaciones de decodificación como la operación inversa entre diferentes formatos de color ( YIQ , YUV y RGB ) con fines de visualización. Los DCT también se utilizan comúnmente para chips codificadores / decodificadores de televisión de alta definición (HDTV). [18]

Desarrollo [ editar ]

En 1976, Richard Wiggins propuso el concepto Speak & Spell a Paul Breedlove, Larry Brantingham y Gene Frantz en las instalaciones de investigación de Texas Instruments en Dallas. Dos años más tarde, en 1978, produjeron el primer Speak & Spell, siendo la pieza central tecnológica el TMS5100 , [19] el primer procesador de señales digitales de la industria. También estableció otros hitos, siendo el primer chip en utilizar codificación predictiva lineal para realizar síntesis de voz . [20] El chip fue posible con un proceso de fabricación de PMOS de 7  µm . [21]

En 1978, American Microsystems (AMI) lanzó el S2811. [3] [4] El "periférico de procesamiento de señales" AMI S2811, como muchos DSP posteriores, tiene un multiplicador de hardware que le permite realizar operaciones de acumulación y multiplicación en una sola instrucción. [22] El S2281 fue el primer chip de circuito integrado diseñado específicamente como DSP y fabricado utilizando VMOS (V-groove MOS), una tecnología que anteriormente no se había producido en masa. [4] Fue diseñado como un periférico de microprocesador, para el Motorola 6800 , [3] y tuvo que ser inicializado por el host. El S2811 no tuvo éxito en el mercado.

En 1979, Intel lanzó el 2920 como un "procesador de señal analógica". [23] Tenía un ADC / DAC en chip con un procesador de señal interno, pero no tenía un multiplicador de hardware y no tuvo éxito en el mercado.

En 1980, los primeros, DSP completos independientes - Nippon Electric Corporation 's NEC μPD7720 y AT & T ' s DSP1 - se presentaron en los Circuitos de Estado Sólido Conferencia Internacional del '80. Ambos procesadores se inspiraron en la investigación en telecomunicaciones de redes telefónicas públicas conmutadas (PSTN) . El µPD7720, introducido para aplicaciones de banda vocal , fue uno de los primeros DSP de mayor éxito comercial. [3]

El Altamira DX-1 fue otro DSP temprano, que utilizaba tuberías de cuatro enteros con ramas retrasadas y predicción de rama. [ cita requerida ]

Otro DSP producido por Texas Instruments (TI), el TMS32010 presentado en 1983, demostró ser un éxito aún mayor. Se basaba en la arquitectura de Harvard, por lo que tenía instrucciones y memoria de datos independientes. Ya tenía un conjunto de instrucciones especial, con instrucciones como cargar y acumular o multiplicar y acumular. Podría funcionar con números de 16 bits y necesitaría 390 ns para una operación de multiplicación y suma. TI es ahora el líder del mercado en DSP de uso general.

Aproximadamente cinco años después, la segunda generación de DSP comenzó a extenderse. Tenían 3 memorias para almacenar dos operandos simultáneamente e incluían hardware para acelerar bucles estrechos ; también tenían una unidad de direccionamiento capaz de direccionamiento en bucle. Algunos de ellos operaban con variables de 24 bits y un modelo típico solo requería alrededor de 21 ns para un MAC. Los miembros de esta generación fueron, por ejemplo, el AT&T DSP16A o el Motorola 56000 .

La principal mejora en la tercera generación fue la aparición de unidades e instrucciones específicas de la aplicación en la ruta de datos o, a veces, como coprocesadores. Estas unidades permitían la aceleración directa por hardware de problemas matemáticos muy específicos pero complejos, como la transformada de Fourier o las operaciones matriciales. Algunos chips, como el Motorola MC68356, incluso incluían más de un núcleo de procesador para trabajar en paralelo. Otros DSP de 1995 son el TI TMS320C541 o el TMS 320C80.

La cuarta generación se caracteriza mejor por los cambios en el conjunto de instrucciones y la codificación / decodificación de instrucciones. Se agregaron extensiones SIMD y aparecieron VLIW y la arquitectura superescalar. Como siempre, las velocidades de reloj han aumentado; ahora es posible un MAC de 3 ns.

DSP modernos [ editar ]

Los procesadores de señal modernos ofrecen un mayor rendimiento; esto se debe en parte a los avances tecnológicos y arquitectónicos, como reglas de diseño más bajas, caché de dos niveles de acceso rápido, circuitos (E) DMA y un sistema de bus más amplio. No todos los DSP proporcionan la misma velocidad y existen muchos tipos de procesadores de señal, cada uno de ellos es más adecuado para una tarea específica, con un precio que oscila entre 1,50 y 300 dólares.

Texas Instruments produce los DSP de la serie C6000 , que tienen velocidades de reloj de 1,2 GHz e implementan cachés de datos e instrucciones separados. También tienen una caché de segundo nivel de 8 MiB y 64 canales EDMA. Los modelos superiores son capaces de hasta 8000 MIPS ( millones de instrucciones por segundo ), utilizan VLIW ( palabra de instrucción muy larga ), realizan ocho operaciones por ciclo de reloj y son compatibles con una amplia gama de periféricos externos y varios buses (PCI / serial / etc). Los chips TMS320C6474 tienen cada uno tres de estos DSP, y los chips C6000 de última generación admiten procesamiento de punto flotante y de punto fijo.

Freescale produce una familia de DSP de varios núcleos, el MSC81xx. El MSC81xx se basa en procesadores StarCore Architecture y el último DSP MSC8144 combina cuatro núcleos SC3400 StarCore DSP programables. Cada núcleo SC3400 StarCore DSP tiene una velocidad de reloj de 1 GHz.

XMOS produce una línea de procesadores de múltiples núcleos y subprocesos muy adecuados para las operaciones DSP. Vienen en varias velocidades que van desde 400 a 1600 MIPS. Los procesadores tienen una arquitectura de subprocesos múltiples que permite hasta 8 subprocesos en tiempo real por núcleo, lo que significa que un dispositivo de 4 núcleos admitiría hasta 32 subprocesos en tiempo real. Los subprocesos se comunican entre sí con canales almacenados en búfer que tienen una capacidad de hasta 80 Mbit / s. Los dispositivos se pueden programar fácilmente en C y tienen como objetivo cerrar la brecha entre los microcontroladores convencionales y los FPGA.

CEVA, Inc. produce y licencia tres familias distintas de DSP. Quizás la más conocida y más ampliamente implementada es la familia CEVA-TeakLite DSP, una arquitectura clásica basada en memoria, con anchos de palabra de 16 o 32 bits y MAC simples o duales . La familia CEVA-X DSP ofrece una combinación de arquitecturas VLIW y SIMD, con diferentes miembros de la familia que ofrecen MAC de 16 bits duales o cuádruples. La familia CEVA-XC DSP tiene como objetivo diseños de módem de radio definida por software (SDR) y aprovecha una combinación única de arquitecturas VLIW y Vector con 32 MAC de 16 bits.

Analog Devices produce el DSP basado en SHARC y su rendimiento varía desde 66 MHz / 198 MFLOPS (millones de operaciones de punto flotante por segundo) hasta 400 MHz / 2400 MFLOPS. Algunos modelos admiten múltiples multiplicadores y ALU , instrucciones SIMD y componentes y periféricos específicos de procesamiento de audio. La familia Blackfin de procesadores de señales digitales integrados combina las características de un DSP con las de un procesador de uso general. Como resultado, estos procesadores pueden ejecutar sistemas operativos simples como μCLinux , velocidad y Nucleus RTOS mientras operan con datos en tiempo real.

Los semiconductores NXP producen DSP basados ​​en la tecnología TriMedia VLIW , optimizados para el procesamiento de audio y video. En algunos productos, el núcleo DSP está oculto como un bloque de función fija en un SoC , pero NXP también proporciona una gama de procesadores de medios flexibles de un solo núcleo. Los procesadores de medios TriMedia admiten tanto aritmética de punto fijo como aritmética de punto flotante , y tienen instrucciones específicas para manejar filtros complejos y codificación de entropía.

CSR produce la familia Quatro de SoC que contiene uno o más DSP de imágenes personalizados optimizados para procesar datos de imágenes de documentos para aplicaciones de escáner y fotocopiadora.

Microchip Technology produce la línea de DSP dsPIC basada en PIC24. Introducido en 2004, el dsPIC está diseñado para aplicaciones que necesitan un verdadero DSP, así como un verdadero microcontrolador , como el control de motores y fuentes de alimentación. El dsPIC funciona con hasta 40 MIPS y admite MAC de punto fijo de 16 bits, direccionamiento de bit inverso y módulo, así como DMA.

La mayoría de los DSP utilizan aritmética de punto fijo, porque en el procesamiento de señales del mundo real no se necesita el rango adicional proporcionado por el punto flotante, y hay un gran beneficio de velocidad y beneficio de costo debido a la reducción de la complejidad del hardware. Los DSP de punto flotante pueden ser invaluables en aplicaciones donde se requiere un amplio rango dinámico. Los desarrolladores de productos también pueden usar DSP de punto flotante para reducir el costo y la complejidad del desarrollo de software a cambio de hardware más caro, ya que generalmente es más fácil implementar algoritmos en punto flotante.

Generalmente, los DSP son circuitos integrados dedicados; sin embargo, la funcionalidad DSP también se puede producir mediante el uso de chips de matriz de puertas programables en campo (FPGA).

Los procesadores RISC de propósito general integrados se están convirtiendo cada vez más en DSP en cuanto a funcionalidad. Por ejemplo, los procesadores OMAP3 incluyen un ARM Cortex-A8 y C6000 DSP.

En Comunicaciones, una nueva generación de DSP que ofrece la fusión de las funciones DSP y la función de aceleración H / W se está abriendo paso en la corriente principal. Estos procesadores de módem incluyen ASOCS ModemX y CEVA's XC4000.

En mayo de 2018, Huarui-2 diseñado por el Instituto de Investigación de Tecnología Electrónica de Nanjing del Grupo de Tecnología Electrónica de China pasó la aceptación. Con una velocidad de procesamiento de 0,4 TFLOPS, el chip puede lograr un mejor rendimiento que los chips DSP convencionales actuales. [24] El equipo de diseño ha comenzado a crear Huarui-3, que tiene una velocidad de procesamiento en el nivel TFLOPS y soporte para inteligencia artificial . [25]

Ver también [ editar ]

  • Controlador de señal digital
  • Unidad de procesamiento gráfico
  • Sistema en un chip
  • Aceleracion de hardware
  • Unidad de procesamiento de visión
  • MDSP : un DSP multiprocesador
  • OpenCL

Referencias [ editar ]

  1. ^ Dyer, SA; Daños, BK (1993). "Procesamiento de señales digitales" . En Yovits, MC (ed.). Avances en informática . 37 . Prensa académica. págs. 104-107. doi : 10.1016 / S0065-2458 (08) 60403-9 . ISBN 9780120121373.
  2. ^ Liptak, BG (2006). Control y Optimización de Procesos . Manual de ingenieros de instrumentos. 2 (4ª ed.). Prensa CRC. págs. 11-12. ISBN 9780849310812.
  3. ^ a b c d e f "1979: Se introdujo el procesador de señal digital de un solo chip" . El motor de silicio . Museo de Historia de la Computación . Consultado el 14 de octubre de 2019 .
  4. ↑ a b c d Taranovich, Steve (27 de agosto de 2012). "30 años de DSP: del juguete de un niño al 4G y más" . EDN . Consultado el 14 de octubre de 2019 .
  5. ↑ a b Ingrid Verbauwhede; Patrick Schaumont; Christian Piguet; Bart Kienhuis (24 de diciembre de 2005). "Arquitecturas y técnicas de diseño para procesamiento multimedia y DSP embebidos energéticamente eficientes" (PDF) . rijndael.ece.vt.edu . Consultado el 13 de junio de 2017 .
  6. ^ Beyond Frontiers Broadgate Publications (septiembre de 2016) pp22
  7. ^ "Procesadores de memoria y DSP" .
  8. ^ "Procesadores DSP: arquitecturas de memoria"
  9. ^ "Arquitectura del procesador de señal digital"
  10. ^ "Opción DSP de memoria ARC XY" .
  11. ^ "Cero bucles aéreos" .
  12. ^ "Referencia de hardware del procesador ADSP-BF533 Blackfin" . pag. 4-15.
  13. ^ "Comprender las características avanzadas del procesador promueve una codificación eficiente" .
  14. ^ "Técnicas para explotar eficazmente un búfer de bucle de sobrecarga cero" .
  15. ^ Grant, Duncan Andrew; Gowar, John (1989). Power MOSFETS: teoría y aplicaciones . Wiley . pag. 1. ISBN 9780471828679. El transistor de efecto de campo semiconductor de óxido metálico (MOSFET) es el dispositivo activo más utilizado en la integración a gran escala de circuitos integrados digitales (VLSI). Durante la década de 1970, estos componentes revolucionaron el procesamiento de señales electrónicas, los sistemas de control y las computadoras.
  16. ^ Shirriff, Ken (30 de agosto de 2016). "La sorprendente historia de los primeros microprocesadores" . Espectro IEEE . Instituto de Ingenieros Eléctricos y Electrónicos . 53 (9): 48–54. doi : 10.1109 / MSPEC.2016.7551353 . S2CID 32003640 . Consultado el 13 de octubre de 2019 . 
  17. ^ Gray, Robert M. (2010). "Una historia del habla digital en tiempo real en redes de paquetes: parte II de codificación predictiva lineal y el protocolo de Internet" (PDF) . Encontró. Proceso de la señal de tendencias . 3 (4): 203–303. doi : 10.1561 / 2000000036 . ISSN 1932-8346 .  
  18. Stanković, Radomir S .; Astola, Jaakko T. (2012). "Reminiscencias de los primeros trabajos en DCT: Entrevista con KR Rao" (PDF) . Reimpresiones de los primeros días de las ciencias de la información . 60 . Consultado el 13 de octubre de 2019 .
  19. ^ "Speak & Spell, el primer uso de un IC de procesamiento de señales digitales para la generación de voz, 1978" . Hitos del IEEE . IEEE . Consultado el 2 de marzo de 2012 .
  20. Bogdanowicz, A. (6 de octubre de 2009). "IEEE Milestones Honor Three" . El Instituto . IEEE. Archivado desde el original el 4 de marzo de 2016 . Consultado el 2 de marzo de 2012 .
  21. ^ Khan, Gul N .; Iniewski, Krzysztof (2017). Sistemas integrados y en red: diseño, software e implementación . Prensa CRC . pag. 2. ISBN 9781351831567.
  22. ^ Alberto Luis Andrés. "Ecualizador de audio gráfico digital" . pag. 48.
  23. ^ https://www.intel.com/Assets/PDF/General/35yrs.pdf#page=17
  24. ^ "国产 新型 雷达 芯片 华 睿 2 号 与 组网 中心 同时 亮相 - 科技 新闻 - 中国 科技 网 首页" .科技 日报. Consultado el 2 de julio de 2018 .
  25. ^ 王 珏 玢. "全国 产 芯片 华 睿 2 号 通过" 核 高 基 "验收 - 新华网" . Agencia de Noticias Xinhua . 南京. Consultado el 2 de julio de 2018 .

Enlaces externos [ editar ]

  • Libro en línea de DSP
  • Guía de bolsillo de procesadores para DSP - Berkeley Design Technology, INC