leer wikipedia con nuevo diseño

Procesamiento de señales de audio


El procesamiento de señales de audio es un subcampo del procesamiento de señales que se ocupa de la manipulación electrónica de señales de audio . Las señales de audio son representaciones electrónicas de las ondas sonoras - ondas longitudinales que viajan a través del aire, que consiste en compresiones y rarefacciones. La energía contenida en las señales de audio generalmente se mide en decibelios . Como las señales de audio pueden representarse en formato digital o analógico , el procesamiento puede ocurrir en cualquier dominio. Los procesadores analógicos operan directamente en la señal eléctrica, mientras que los procesadores digitales operan matemáticamente en su representación digital.

Historia

La motivación para el procesamiento de señales de audio comenzó a principios del siglo XX con inventos como el teléfono , el fonógrafo y la radio que permitieron la transmisión y el almacenamiento de señales de audio. El procesamiento de audio era necesario para las primeras transmisiones de radio , ya que había muchos problemas con los enlaces del estudio al transmisor . [1] La teoría del procesamiento de señales y su aplicación al audio se desarrolló en gran medida en Bell Labs a mediados del siglo XX. Los primeros trabajos de Claude Shannon y Harry Nyquist sobre teoría de la comunicación , teoría de muestreo y modulación de código de pulso (PCM) sentaron las bases del campo. En 1957, Max Mathews se convirtió en la primera persona en sintetizar audio desde una computadora , dando origen a la música de computadora .

Los principales desarrollos en codificación de audio digital y compresión de datos de audio incluyen modulación diferencial de código de pulso (DPCM) por C. Chapin Cutler en Bell Labs en 1950, [2] codificación predictiva lineal (LPC) por Fumitada Itakura ( Universidad de Nagoya ) y Shuzo Saito ( Nippon Telegraph and Telephone ) en 1966, [3] DPCM adaptativo (ADPCM) por P. Cummiskey, Nikil S. Jayant y James L. Flanagan en Bell Labs en 1973, [4] [5] codificación de transformada de coseno discreta (DCT) por Nasir Ahmed , T. Natarajan y KR Rao en 1974, [6] y la codificación de transformada de coseno discreta modificada (MDCT) por JP Princen, AW Johnson y AB Bradley en la Universidad de Surrey en 1987. [7] LPC es la base de la percepción codificación y se utiliza ampliamente en la codificación de voz , [8] mientras que la codificación MDCT se utiliza ampliamente en formatos de codificación de audio modernos como MP3 [9] y codificación de audio avanzada (AAC). [10]

Señales análogas

Una señal de audio analógica es una señal continua representada por un voltaje o corriente eléctrica que es "análoga" a las ondas sonoras en el aire. El procesamiento de señales analógicas implica alterar físicamente la señal continua cambiando el voltaje, la corriente o la carga a través de circuitos eléctricos .

Históricamente, antes del advenimiento de la tecnología digital generalizada , lo analógico era el único método para manipular una señal. Desde entonces, a medida que las computadoras y el software se han vuelto más capaces y asequibles, el procesamiento de señales digitales se ha convertido en el método de elección. Sin embargo, en aplicaciones de música, la tecnología analógica a menudo sigue siendo deseable, ya que a menudo produce respuestas no lineales que son difíciles de replicar con filtros digitales.

Señales digitales

Una representación digital expresa la forma de onda de audio como una secuencia de símbolos, generalmente números binarios . Esto permite el procesamiento de señales utilizando circuitos digitales como procesadores de señales digitales , microprocesadores y computadoras de uso general . La mayoría de los sistemas de audio modernos utilizan un enfoque digital, ya que las técnicas de procesamiento de señales digitales son mucho más potentes y eficientes que el procesamiento de señales de dominio analógico. [11]

Áreas de aplicación

Los métodos de procesamiento y las áreas de aplicación incluyen almacenamiento , compresión de datos , recuperación de información musical , procesamiento de voz , localización , detección acústica , transmisión , cancelación de ruido , huellas digitales acústicas , reconocimiento de sonido , síntesis y mejora (por ejemplo , ecualización , filtrado , compresión de nivel , eco y reverberación). eliminación o adición, etc.).

Difusión de audio

El procesamiento de señales de audio se utiliza cuando se transmiten señales de audio para mejorar su fidelidad u optimizar el ancho de banda o la latencia. En este dominio, el procesamiento de audio más importante tiene lugar justo antes del transmisor. El procesador de audio aquí debe prevenir o minimizar la sobremodulación , compensar los transmisores no lineales (un problema potencial con la transmisión de onda media y onda corta ) y ajustar el volumen general al nivel deseado.

Control de ruido activo

El control activo del ruido es una técnica diseñada para reducir el sonido no deseado. Al crear una señal que es idéntica al ruido no deseado pero con la polaridad opuesta, las dos señales se cancelan debido a la interferencia destructiva .

Síntesis de audio

La síntesis de audio es la generación electrónica de señales de audio. Un instrumento musical que logra esto se llama sintetizador. Los sintetizadores pueden imitar sonidos o generar nuevos. La síntesis de audio también se utiliza para generar voz humana mediante la síntesis de voz .

Efectos de audio

Los efectos de audio son sistemas diseñados para alterar cómo suena una señal de audio. El audio no procesado se denomina metafóricamente seco , mientras que el audio procesado se denomina húmedo . [12]

  • retardo o eco: para simular el efecto de la reverberación en una gran sala o caverna, se añaden una o varias señales retardadas a la señal original. Para que se perciba como eco, el retardo debe ser del orden de 35 milisegundos o más. A menos que realmente se reproduzca un sonido en el entorno deseado, el efecto del eco se puede implementar utilizandométodos digitales o analógicos . Los efectos de eco analógico se implementan mediante retardos de cinta o dispositivos de brigada de cubeta . Cuando se mezclan un gran número de señales retardadas, seproduceunefecto de reverberación ; El sonido resultante tiene el efecto de presentarse en una gran sala.
  • flanger : para crear un sonido inusual, se agrega una señal retardada a la señal original con un retardo continuamente variable (generalmente menor de 10 ms). Este efecto ahora se realiza electrónicamente usando DSP , pero originalmente el efecto se creó reproduciendo la misma grabación en dos reproductores de cintas sincronizados y luego mezclando las señales. Mientras las máquinas estuvieran sincronizadas, la mezcla sonaría más o menos normal, pero si el operador colocaba el dedo en el borde de uno de los jugadores (de ahí "flanger"), esa máquina se ralentizaría y su señal sería caen fuera de fase con su compañero, produciendo unefecto de filtro de peine de fase. Una vez que el operador quitaba el dedo, el jugador aceleraba hasta que volvía a estar en fase con el maestro, y cuando esto sucedía, el efecto de fase parecía deslizarse hacia arriba en el espectro de frecuencias. Esta fase ascendente y descendente del registro se puede realizar rítmicamente.
  • phaser : otra forma de crear un sonido inusual; la señal se divide, una parte se filtra con un filtro de paso total variablepara producir un cambio de fase, y luego las señales no filtradas y filtradas se mezclan para producir un filtro de peine. El efecto phaser fue originalmente una implementación más simple del efecto flanger ya que los retardos eran difíciles de implementar con equipos analógicos.
  • chorus : se agrega una versión retardada de la señal a la señal original. El retardo debe ser breve para que no se perciba como eco, pero debe ser superior a 5 ms para que sea audible. Si el retardo es demasiado corto, interferirá destructivamente con la señal no retardada y creará unefecto de flanger . A menudo, las señales retrasadas cambiarán ligeramente de tono para transmitir de forma más realista el efecto de varias voces.
  • Ecualización : la respuesta de frecuencia se ajusta utilizando filtros de audio para producir las características espectrales deseadas. Rangos de frecuencia se pueden destacar o atenuadas usando paso bajo , paso alto , de paso de banda o de banda eliminada filtros. Se puede utilizar un uso moderado de la ecualización para ajustar la calidad tonal de una grabación; El uso extremo de la ecualización, como cortar mucho una determinada frecuencia, puede crear efectos más inusuales. El filtrado de paso de banda de la voz puede simular el efecto de un teléfono porque los teléfonos utilizan filtros de paso de banda.
  • Los efectos de saturación se pueden utilizar para producir sonidos distorsionados y aumentar el volumen . El efecto de saturación más básico consiste en recortar la señal cuando su valor absoluto supera un cierto umbral.
  • modificación del tono de la escala de tiempo : este efecto aumenta o disminuye el tono de una señal. Por ejemplo, una señal puede desplazarse una octava hacia arriba o hacia abajo. La combinación de la señal original con duplicados desplazados puede crear armonización . Otra aplicación del cambio de tono es la corrección de tono, en la que se ajusta una señal musical para mejorar la entonación . El complemento del cambio de tono es la modificación de la escala de tiempo, es decir, el proceso de cambiar la velocidad de una señal de audio sin afectar su tono.
  • resonadores : enfatizan el contenido de frecuencia armónica en frecuencias específicas. Estos pueden crearse a partir de una ecuación paramétrica o de filtros de peine basados ​​en retardo.
  • Los efectos de voz robótica se utilizan para hacer que la voz de un actor suene como una voz humana sintetizada.
  • La modulación en anillo es un efecto que se hizo famoso porlos Daleks de Doctor Who y que se usa comúnmente en toda la ciencia ficción.
  • Compresión de rango dinámico : el control del rango dinámico de un sonido para evitar fluctuaciones de nivel no intencionales o no deseadas. La compresión de rango dinámico no debe confundirse con la compresión de datos de audio , donde la cantidad de datos se reduce sin afectar la amplitud del sonido que representa.
  • Efectos de audio 3D : colocación de sonidos fuera del rango espacial disponible a través deimágenes estéreo o envolventes .
  • síntesis de campo de ondas : una técnica de reproducción de audio espacial para la creación de entornos acústicos virtuales.
  • De-esser : control de la sibilancia en el habla y el canto.

Ver también

  • Tarjeta de sonido
  • Efecto de sonido

Referencias

  1. ^ Atti, Andreas Spanias, Ted Painter, Venkatraman (2006). Procesamiento y codificación de señales de audio ([Online-Ausg.] Ed.). Hoboken, Nueva Jersey: John Wiley & Sons. pag. 464. ISBN 0-471-79147-4.
  2. ^ Patente estadounidense 2605361 , C. Chapin Cutler, "Cuantificación diferencial de señales de comunicación", emitida el 29 de julio de 1952 
  3. ^ Gray, Robert M. (2010). "Una historia del habla digital en tiempo real en redes de paquetes: parte II de codificación predictiva lineal y el protocolo de Internet" (PDF) . Encontró. Proceso de la señal de tendencias . 3 (4): 203–303. doi : 10.1561 / 2000000036 . ISSN  1932-8346 .
  4. ^ P. Cummiskey, Nikil S. Jayant y JL Flanagan, "Cuantización adaptativa en la codificación diferencial PCM del habla", Bell Syst. Tech. J. , vol. 52, págs. 1105-1118, septiembre de 1973
  5. ^ Cummiskey, P .; Jayant, Nikil S .; Flanagan, JL (1973). "Cuantificación adaptativa en codificación diferencial PCM de voz". El diario técnico de Bell System . 52 (7): 1105-1118. doi : 10.1002 / j.1538-7305.1973.tb02007.x . ISSN  0005-8580 .
  6. ^ Nasir Ahmed ; T. Natarajan; Kamisetty Ramamohan Rao (enero de 1974). "Transformada discreta del coseno" (PDF) . Transacciones IEEE en computadoras . C-23 (1): 90–93. doi : 10.1109 / TC.1974.223784 .
  7. ^ JP Princen, AW Johnson y AB Bradley: codificación de subbanda / transformación utilizando diseños de bancos de filtros basados ​​en la cancelación de alias en el dominio del tiempo , IEEE Proc. Intl. Conferencia sobre acústica, habla y procesamiento de señales (ICASSP), 2161-2164, 1987.
  8. ^ Schroeder, Manfred R. (2014). "Laboratorios Bell" . Acústica, información y comunicación: volumen conmemorativo en honor a Manfred R. Schroeder . Saltador. pag. 388. ISBN 9783319056609.
  9. ^ Guckert, John (primavera de 2012). "El uso de FFT y MDCT en la compresión de audio MP3" (PDF) . Universidad de Utah . Consultado el 14 de julio de 2019 .
  10. ^ Brandeburgo, Karlheinz (1999). "MP3 y AAC explicados" (PDF) . Archivado (PDF) desde el original el 13 de febrero de 2017.
  11. ^ Zölzer, Udo (1997). Procesamiento de señales de audio digital . John Wiley e hijos. ISBN 0-471-97226-6.
  12. ^ Hodgson, Jay (2010). Comprensión de los registros , p.95. ISBN  978-1-4411-5607-5 .

Otras lecturas

  • Rocchesso, Davide (20 de marzo de 2003). Introducción al procesamiento de sonido (PDF) .
  • Wilmering, Thomas; Moffat, David; Milo, Alessia; Sandler, Mark B. (2020). "Una historia de efectos de audio" . Ciencias Aplicadas . 10 (3): 791. doi : 10.3390 / app10030791 .

This page is based on a Wikipedia article Text is available under the CC BY-SA 4.0 license; additional terms may apply. Images, videos and audio are available under their respective licenses.


  • Terms of Use
  • Privacy Policy