La localización del sonido es la capacidad del oyente para identificar la ubicación o el origen de un sonido detectado en dirección y distancia.
Los mecanismos de localización de sonidos del sistema auditivo de los mamíferos se han estudiado extensamente. El sistema auditivo utiliza varias señales para la localización de la fuente de sonido, incluidas las diferencias de tiempo y nivel (o diferencia de intensidad) entre ambos oídos, información espectral, análisis de tiempo, análisis de correlación y coincidencia de patrones.
Estas señales también son utilizadas por otros animales, pero puede haber diferencias en el uso, y también hay señales de localización que están ausentes en el sistema auditivo humano, como los efectos de los movimientos del oído. Los animales con la capacidad de localizar el sonido tienen una clara ventaja evolutiva.
Cómo llega el sonido al cerebro
El sonido es el resultado de la percepción de vibraciones mecánicas que viajan a través de un medio como el aire o el agua. A través de los mecanismos de compresión y rarefacción, las ondas sonoras viajan por el aire, rebotan en el pabellón auricular y la concha del oído exterior y entran en el canal auditivo. Las ondas sonoras hacen vibrar la membrana timpánica ( tímpano ), lo que hace que vibren los tres huesos del oído medio , que luego envían la energía a través de la ventana oval hacia la cóclea, donde las células ciliadas del órgano la transforman en una señal química. de Corti , que hacen sinapsis con fibras ganglionares espirales que viajan a través del nervio coclear hacia el cerebro.
Interacciones neuronales
En los vertebrados , se sabe que las diferencias de tiempo interaural se calculan en el núcleo olivar superior del tronco encefálico . Según Jeffress , [1] este cálculo se basa en líneas de retardo : neuronas en la oliva superior que aceptan la inervación de cada oído con diferentes longitudes de axón de conexión . Algunas células están conectadas más directamente a un oído que al otro, por lo que son específicas para una diferencia de tiempo interaural particular. Esta teoría es equivalente al procedimiento matemático de correlación cruzada . Sin embargo, debido a que la teoría de Jeffress no puede explicar el efecto de precedencia , en el que solo se usa el primero de varios sonidos idénticos para determinar la ubicación de los sonidos (evitando así la confusión causada por los ecos), no puede usarse por completo para explicar la respuesta. Además, una serie de observaciones fisiológicas recientes realizadas en el mesencéfalo y el tronco del encéfalo de pequeños mamíferos han arrojado considerables dudas sobre la validez de las ideas originales de Jeffress. [2]
Las neuronas sensibles a las diferencias de nivel interaural (ILD) son excitadas por la estimulación de un oído e inhibidas por la estimulación del otro oído, de modo que la magnitud de la respuesta de la célula depende de la fuerza relativa de las dos entradas, que a su vez, depende en las intensidades del sonido en los oídos.
En el núcleo auditivo del mesencéfalo, el colículo inferior (IC), muchas neuronas sensibles a la ILD tienen funciones de respuesta que disminuyen abruptamente desde picos máximos a cero en función de la ILD. Sin embargo, también hay muchas neuronas con funciones de respuesta mucho más superficiales que no disminuyen a cero picos.
El cono de confusión
La mayoría de los mamíferos son expertos en resolver la ubicación de una fuente de sonido utilizando diferencias de tiempo interaural y diferencias de nivel interaural. Sin embargo, no existen tales diferencias de tiempo o nivel para los sonidos que se originan a lo largo de la circunferencia de cortes cónicos circulares, donde el eje del cono se encuentra a lo largo de la línea entre los dos oídos.
En consecuencia, las ondas sonoras que se originan en cualquier punto a lo largo de una determinada altura de inclinación de la circunferencia tendrán coordenadas de percepción ambiguas. Es decir, el oyente será incapaz de determinar si el sonido se originó en la parte posterior, frontal, superior, inferior o en cualquier otro lugar a lo largo de la circunferencia en la base de un cono a una distancia determinada del oído. Por supuesto, la importancia de estas ambigüedades es extremadamente pequeña para las fuentes de sonido muy cercanas o muy alejadas del sujeto, pero son estas distancias intermedias las más importantes en términos de aptitud.
Estas ambigüedades se pueden eliminar inclinando la cabeza, lo que puede introducir un cambio tanto en la amplitud como en la fase de las ondas sonoras que llegan a cada oído. Esto traduce la orientación vertical del eje interaural horizontalmente, aprovechando así el mecanismo de localización en el plano horizontal. Además, incluso sin alternancia en el ángulo del eje interaural (es decir, sin inclinar la cabeza), el sistema auditivo puede capitalizar los patrones de interferencia generados por el pabellón auricular, el torso e incluso la reutilización temporal de una mano como extensión del pabellón auricular. (por ejemplo, poner la mano alrededor de la oreja).
Al igual que con otros estímulos sensoriales, la desambiguación perceptiva también se logra mediante la integración de múltiples entradas sensoriales, especialmente señales visuales. Habiendo localizado un sonido dentro de la circunferencia de un círculo a cierta distancia percibida, las señales visuales sirven para fijar la ubicación del sonido. Además, el conocimiento previo de la ubicación del agente generador de sonido ayudará a resolver su ubicación actual.
Localización de sonido por el sistema auditivo humano
La localización del sonido es el proceso de determinar la ubicación de una fuente de sonido . Hablando objetivamente, el objetivo principal de la localización del sonido es simular un campo de sonido específico, incluidas las fuentes acústicas, el oyente, los medios y los entornos de propagación del sonido. El cerebro utiliza diferencias sutiles en las señales de intensidad, espectrales y de tiempo para permitirnos localizar las fuentes de sonido. [3] [4] En esta sección, para comprender más profundamente el mecanismo auditivo humano, discutiremos brevemente sobre la teoría de la localización del oído humano.
Introducción general
La localización se puede describir en términos de posición tridimensional: el azimut o ángulo horizontal, la elevación o ángulo vertical y la distancia (para sonidos estáticos) o velocidad (para sonidos en movimiento). [5]
El acimut de un sonido se indica por la diferencia en los tiempos de llegada entre los oídos , por la amplitud relativa de los sonidos de alta frecuencia (el efecto de sombra) y por los reflejos espectrales asimétricos de varias partes de nuestro cuerpo, incluidos el torso, los hombros, y pinnas . [5]
Las señales de distancia son la pérdida de amplitud, la pérdida de altas frecuencias y la relación entre la señal directa y la señal reverberada. [5]
Dependiendo de dónde se encuentre la fuente, nuestra cabeza actúa como una barrera para cambiar el timbre , la intensidad y las cualidades espectrales del sonido, ayudando al cerebro a orientar de dónde emanó el sonido. [4] Estas pequeñas diferencias entre los dos oídos se conocen como señales interaurales. [4]
Las frecuencias más bajas, con longitudes de onda más largas, difractan el sonido alrededor de la cabeza, lo que obliga al cerebro a concentrarse solo en las señales de fase de la fuente. [4]
Helmut Haas descubrió que podemos discernir la fuente de sonido a pesar de reflejos adicionales a 10 decibelios más fuertes que el frente de onda original, utilizando el frente de onda que llega más temprano. [4] Este principio se conoce como efecto Haas , una versión específica del efecto de precedencia . [4] Haas midió hasta una diferencia de 1 milisegundo en la sincronización entre el sonido original y el sonido reflejado y aumentó la amplitud, lo que permitió al cerebro discernir la verdadera ubicación del sonido original. El sistema nervioso combina todas las reflexiones tempranas en un solo todo perceptivo que permite al cerebro procesar múltiples sonidos diferentes a la vez. [6] El sistema nervioso combinará reflejos que están dentro de unos 35 milisegundos entre sí y que tienen una intensidad similar. [6]
Teoría dúplex
Para determinar la dirección de entrada lateral (izquierda, frontal, derecha), el sistema auditivo analiza la siguiente información de la señal del oído :
Teoría dúplex
En 1907, Lord Rayleigh utilizó diapasones para generar excitación monofónica y estudió la teoría de la localización del sonido lateral en un modelo de cabeza humana sin aurícula. Primero presentó la teoría de la localización del sonido basada en la diferencia de pistas interaurales, que se conoce como teoría dúplex. [7] Los oídos humanos están en diferentes lados de la cabeza, por lo que tienen diferentes coordenadas en el espacio. Como se muestra en la fig. 2, dado que las distancias entre la fuente acústica y los oídos son diferentes, existe una diferencia de tiempo y una diferencia de intensidad entre las señales de sonido de dos oídos. Llamamos a ese tipo de diferencias como Diferencia de tiempo inter-aural (ITD) y Diferencia de intensidad inter-aural (IID) respectivamente.
ITD e IID
En la figura 2 podemos ver que no importa para la fuente B1 o la fuente B2, habrá un retardo de propagación entre dos oídos, que generará el ITD. Al mismo tiempo, la cabeza y los oídos humanos pueden tener un efecto de sombra en las señales de alta frecuencia, lo que generará IID.
- Diferencia de tiempo interaural (DTI) El sonido del lado derecho llega al oído derecho antes que al oído izquierdo. El sistema auditivo evalúa las diferencias de tiempo interaural de: (a) retardos de fase a bajas frecuencias y (b) retardos de grupo a altas frecuencias.
- Experimentos masivos demuestran que ITD se relaciona con la frecuencia de la señal f. Suponga que la posición angular de la fuente acústica es θ, el radio de la cabeza es r y la velocidad acústica es c, la función de ITD está dada por: [8]. En la forma cerrada anterior, asumimos que el grado 0 está a la derecha delante de la cabeza y en sentido contrario a las agujas del reloj es positivo.
- Diferencia de Intensidad Interaural (IID) o Diferencia de Nivel Interaural (ILD) El sonido del lado derecho tiene un nivel más alto en el oído derecho que en el oído izquierdo, porque la cabeza hace sombra al oído izquierdo. Estas diferencias de nivel dependen en gran medida de la frecuencia y aumentan a medida que aumenta la frecuencia. Investigaciones teóricas masivas demuestran que IID se relaciona con la frecuencia de la señal f y la posición angular de la fuente acústica θ. La función del IID viene dada por: [8]
- Para frecuencias inferiores a 1000 Hz se evalúan principalmente ITD ( retardos de fase ), para frecuencias superiores a 1500 Hz se evalúan principalmente IID. Entre 1000 Hz y 1500 Hz hay una zona de transición, donde ambos mecanismos juegan un papel.
- La precisión de la localización es de 1 grado para las fuentes situadas frente al oyente y de 15 grados para las fuentes situadas a los lados. Los seres humanos pueden discernir diferencias de tiempo interaurales de 10 microsegundos o menos. [9] [10]
Evaluación de bajas frecuencias
Para frecuencias por debajo de 800 Hz, las dimensiones de la cabeza (distancia del oído 21,5 cm, correspondiente a un retardo de tiempo interaural de 625 µs) son menores que la mitad de la longitud de onda de las ondas sonoras. Entonces, el sistema auditivo puede determinar los retrasos de fase entre ambos oídos sin confusión. Las diferencias de nivel interaural son muy bajas en este rango de frecuencia, especialmente por debajo de aproximadamente 200 Hz, por lo que una evaluación precisa de la dirección de entrada es casi imposible basándose únicamente en las diferencias de nivel. A medida que la frecuencia cae por debajo de 80 Hz, resulta difícil o imposible utilizar la diferencia de tiempo o la diferencia de nivel para determinar la fuente lateral de un sonido, porque la diferencia de fase entre los oídos se vuelve demasiado pequeña para una evaluación direccional. [11]
Evaluación de altas frecuencias
Para frecuencias superiores a 1600 Hz, las dimensiones de la cabeza son mayores que la longitud de las ondas sonoras. En estas frecuencias no es posible una determinación inequívoca de la dirección de entrada basada únicamente en la fase interaural. Sin embargo, las diferencias de nivel interaural se hacen más grandes y estas diferencias de nivel son evaluadas por el sistema auditivo. Además, los retrasos grupales entre los oídos pueden evaluarse y son más pronunciados en frecuencias más altas; es decir, si hay un inicio de sonido, el retraso de este inicio entre los oídos se puede utilizar para determinar la dirección de entrada de la fuente de sonido correspondiente. Este mecanismo se vuelve especialmente importante en entornos reverberantes. Después de la aparición de un sonido, hay un breve período de tiempo en el que el sonido directo llega a los oídos, pero aún no el sonido reflejado. El sistema auditivo utiliza este breve período de tiempo para evaluar la dirección de la fuente de sonido y mantiene esta dirección detectada siempre que los reflejos y la reverberación impidan una estimación de dirección inequívoca. [12] Los mecanismos descritos anteriormente no se pueden utilizar para diferenciar entre una fuente de sonido delante del oyente o detrás del oyente; por lo tanto, deben evaluarse señales adicionales. [13]
Teoría del efecto de filtrado del pabellón auricular
Motivaciones
La teoría dúplex señala claramente que ITD e IID desempeñan un papel importante en la localización del sonido, pero solo pueden tratar problemas de localización lateral. Por ejemplo, según la teoría dúplex, si dos fuentes acústicas están ubicadas simétricamente en la parte frontal derecha y posterior derecha de la cabeza humana, generarán ITD e IID iguales, lo que se denomina efecto de modelo de cono. Sin embargo, los oídos humanos pueden distinguir este conjunto de fuentes. Además de eso, en el sentido natural del oído, solo un oído, lo que significa que no hay ITD o IID, puede distinguir las fuentes con una gran precisión. Debido a las desventajas de la teoría dúplex, los investigadores propusieron la teoría del efecto de filtrado del pabellón auricular. [14] La forma del pabellón auricular humano es muy especial. Es cóncavo con pliegues complejos y asimétrico sin importar horizontal o verticalmente. Las ondas reflejadas y las ondas directas generarán un espectro de frecuencia en el tímpano, que está relacionado con las fuentes acústicas. Luego, los nervios auditivos localizan las fuentes mediante este espectro de frecuencias. Por lo tanto, se propuso una teoría correspondiente y se denominó teoría del efecto de filtrado del pabellón auricular. [15]
Modelo matemático
Esta pista de espectro generada por el efecto de filtrado del pabellón auricular se puede presentar como una función de transferencia relacionada con la cabeza (HRTF). Las expresiones correspondientes en el dominio del tiempo se denominan Respuesta de impulso relacionada con la cabeza (HRIR). HRTF también se denomina función de transferencia desde el campo libre a un punto específico del canal auditivo. Por lo general, reconocemos los HRTF como sistemas LTI: [8]
,
donde L y R representan el oído izquierdo y derecho respectivamente. y representan la amplitud de la presión del sonido en las entradas del canal auditivo izquierdo y derecho. es la amplitud de la presión del sonido en el centro de la coordenada de la cabeza cuando el oyente no existe. En general, HRTF y son funciones de la posición angular de la fuente , Ángulo de elevación , distancia entre la fuente y el centro de la cabeza , la velocidad angular y la dimensión equivalente de la cabeza .
Base de datos HRTF
En la actualidad, los principales institutos que trabajan en la medición de la base de datos HRTF incluyen CIPIC [16] International Lab, MIT Media Lab, la Escuela de Graduados en Psicoacústica de la Universidad de Oldenburg, el Laboratorio de Neurofisiología de la Universidad de Wisconsin-Madison y el Ames Lab de la NASA. . Las bases de datos de HRIR de humanos con audición normal y con discapacidad auditiva y de animales están disponibles públicamente.
Otras señales para la localización de espacios 3D
Señales monoaurales
El oído externo humano , es decir, las estructuras del pabellón auricular y el conducto auditivo externo , forman filtros de dirección selectiva. Dependiendo de la dirección de entrada del sonido en el plano medio, se activan diferentes resonancias de filtro. Estas resonancias implantan patrones específicos de dirección en las respuestas de frecuencia de los oídos, que pueden ser evaluados por el sistema auditivo para la localización vertical del sonido . Junto con otros reflejos selectivos de dirección en la cabeza, los hombros y el torso, forman las funciones de transferencia del oído externo. Estos patrones en las respuestas de frecuencia del oído son muy individuales, dependiendo de la forma y el tamaño del oído externo. Si el sonido se presenta a través de auriculares y se ha grabado a través de otro cabezal con superficies del oído externo de diferentes formas, los patrones direccionales difieren de los del oyente y aparecerán problemas al intentar evaluar las direcciones en el plano medio con estos oídos extraños. Como consecuencia, pueden aparecer permutaciones de adelante hacia atrás o localización dentro de la cabeza cuando se escuchan grabaciones de cabeza ficticia o, de otro modo, se las denomina grabaciones binaurales. Se ha demostrado que los seres humanos pueden localizar de forma monoaural el sonido de alta frecuencia, pero no el sonido de baja frecuencia. Sin embargo, la localización binaural fue posible con frecuencias más bajas. Esto probablemente se deba a que el pabellón auricular es lo suficientemente pequeño como para interactuar solo con ondas sonoras de alta frecuencia. [17] Parece que las personas solo pueden localizar con precisión la elevación de los sonidos que son complejos e incluyen frecuencias superiores a 7.000 Hz, y debe haber un pabellón auricular. [18]
Señales binaurales dinámicas
Cuando la cabeza está estacionaria, las señales binaurales para la localización del sonido lateral (diferencia de tiempo interaural y diferencia de nivel interaural) no brindan información sobre la ubicación de un sonido en el plano medio. Los sonidos al nivel de los ojos o en cualquier elevación pueden producir ITD e ILD idénticos, siempre que la dirección lateral sea constante. Sin embargo, si se gira la cabeza, el ITD y el ILD cambian dinámicamente, y esos cambios son diferentes para los sonidos a diferentes alturas. Por ejemplo, si una fuente de sonido al nivel de los ojos está en línea recta y la cabeza gira hacia la izquierda, el sonido se vuelve más fuerte (y llega antes) al oído derecho que al izquierdo. Pero si la fuente de sonido está directamente sobre la cabeza, no habrá cambios en el ITD ni en el ILD cuando la cabeza gire. Las elevaciones intermedias producirán grados intermedios de cambio, y si se invierte la presentación de señales binaurales en los dos oídos durante el movimiento de la cabeza, el sonido se escuchará detrás del oyente. [13] [19] Hans Wallach [20] alteró artificialmente las señales binaurales de un sonido durante los movimientos de la cabeza. Aunque el sonido se colocó objetivamente al nivel de los ojos, los cambios dinámicos en ITD e ILD a medida que giraba la cabeza eran los que se producirían si la fuente de sonido se hubiera elevado. En esta situación, el sonido se escuchó en la elevación sintetizada. El hecho de que las fuentes de sonido permanecieran objetivamente al nivel de los ojos impidió que las señales monoaurales especificaran la elevación, mostrando que fue el cambio dinámico en las señales binaurales durante el movimiento de la cabeza lo que permitió que el sonido se localizara correctamente en la dimensión vertical. Los movimientos de la cabeza no necesitan producirse activamente; La localización vertical precisa se produjo en una configuración similar cuando la rotación de la cabeza se produjo de forma pasiva, al sentar al sujeto con los ojos vendados en una silla giratoria. Siempre que los cambios dinámicos en las señales binaurales acompañaron una rotación de la cabeza percibida, se percibió la elevación sintetizada. [13]
Distancia de la fuente de sonido
[ cita requerida ]
El sistema auditivo humano solo tiene posibilidades limitadas para determinar la distancia de una fuente de sonido. En el rango cercano hay algunas indicaciones para la determinación de la distancia, como diferencias extremas de nivel (por ejemplo, al susurrar en un oído) o resonancias específicas del pabellón auricular (la parte visible del oído) en el rango cercano.
El sistema auditivo usa estas pistas para estimar la distancia a una fuente de sonido:
- Relación directa / reflexión: en habitaciones cerradas, dos tipos de sonido llegan al oyente: el sonido directo llega a los oídos del oyente sin reflejarse en una pared. El sonido reflejado se ha reflejado al menos una vez en una pared antes de llegar al oyente. La relación entre el sonido directo y el sonido reflejado puede dar una indicación sobre la distancia de la fuente de sonido.
- Sonoridad: las fuentes de sonido distantes tienen un volumen más bajo que las cercanas. Este aspecto se puede evaluar especialmente para fuentes de sonido conocidas.
- Espectro de sonido: el aire amortigua más rápidamente las frecuencias altas que las bajas. Por lo tanto, una fuente de sonido distante suena más apagada que una cercana, porque las frecuencias altas se atenúan. Para el sonido con un espectro conocido (por ejemplo, el habla), la distancia se puede estimar aproximadamente con la ayuda del sonido percibido.
- ITDG: El intervalo de retardo de tiempo inicial describe la diferencia de tiempo entre la llegada de la onda directa y la primera reflexión fuerte en el oyente. Las fuentes cercanas crean un ITDG relativamente grande, y las primeras reflexiones tienen un camino más largo, posiblemente muchas veces más largo. Cuando la fuente está lejos, las ondas sonoras directas y reflejadas tienen longitudes de trayectoria similares.
- Movimiento: similar al sistema visual, también existe el fenómeno de paralaje de movimiento en la percepción acústica. Para un oyente en movimiento, las fuentes de sonido cercanas pasan más rápido que las fuentes de sonido distantes.
- Diferencia de nivel: las fuentes de sonido muy cercanas provocan un nivel diferente entre los oídos.
Procesamiento de la señal
El procesamiento de sonido del sistema auditivo humano se realiza en las llamadas bandas críticas . El rango de audición está segmentado en 24 bandas críticas, cada una con un ancho de 1 Bark o 100 Mel . Para un análisis direccional, las señales dentro de la banda crítica se analizan juntas.
El sistema auditivo puede extraer el sonido de una fuente de sonido deseada del ruido de interferencia. Esto permite que el oyente se concentre en un solo orador si otros oradores también están hablando (el efecto de cóctel ). Con la ayuda del efecto de cóctel, el sonido de las direcciones que interfieren se percibe atenuado en comparación con el sonido de la dirección deseada. El sistema auditivo puede aumentar la relación señal / ruido hasta en 15 dB , lo que significa que el sonido interferente se percibe como atenuado a la mitad (o menos) de su volumen real . [ cita requerida ]
Localización en habitaciones cerradas
En habitaciones cerradas, no solo llega el sonido directo de una fuente de sonido a los oídos del oyente, sino también el sonido que se refleja en las paredes. El sistema auditivo analiza sólo el sonido directo, [12] que llega primero, para la localización del sonido, pero no el sonido reflejado, que llega más tarde ( ley del primer frente de onda ). Por tanto, la localización del sonido sigue siendo posible incluso en un entorno ecoico. Esta cancelación de eco ocurre en el Núcleo Dorsal del Lemniscus Lateral (DNLL). [21]
Para determinar los períodos de tiempo en los que prevalece el sonido directo y que se pueden utilizar para la evaluación direccional, el sistema auditivo analiza los cambios de sonoridad en diferentes bandas críticas y también la estabilidad de la dirección percibida. Si hay un fuerte ataque de la sonoridad en varias bandas críticas y si la dirección percibida es estable, este ataque es con toda probabilidad causado por el sonido directo de una fuente de sonido, que está entrando recientemente o que está cambiando sus características de señal. El sistema auditivo utiliza este breve período de tiempo para el análisis direccional y de sonoridad de este sonido. Cuando los reflejos llegan un poco más tarde, no mejoran el volumen dentro de las bandas críticas de una manera tan fuerte, pero las señales direccionales se vuelven inestables, porque hay una mezcla de sonido de varias direcciones de reflexión. Como resultado, el sistema auditivo no activa ningún nuevo análisis direccional.
Esta primera dirección detectada del sonido directo se toma como la dirección de la fuente de sonido encontrada, hasta que otros fuertes ataques de sonoridad, combinados con información direccional estable, indiquen que es posible un nuevo análisis direccional. (ver efecto Franssen )
Técnicas específicas con aplicaciones
Sistema estéreo de transmisión auditiva
Este tipo de técnica de localización de sonido nos proporciona el sistema estéreo virtual real . [22] Utiliza maniquíes "inteligentes", como KEMAR, para recoger señales o utilizar métodos DSP para simular el proceso de transmisión de las fuentes a los oídos. Después de amplificar, grabar y transmitir, los dos canales de señales recibidas se reproducirán a través de auriculares o altavoces. Este enfoque de localización utiliza métodos electroacústicos para obtener la información espacial del campo de sonido original transfiriendo el aparato auditivo del oyente al campo de sonido original. Las ventajas más considerables de la misma serían que sus imágenes acústicas son vivas y naturales. Además, solo necesita dos señales transmitidas independientes para reproducir la imagen acústica de un sistema 3D.
Sistema estéreo de paravirtualización 3D
Los representantes de este tipo de sistema son SRS Audio Sandbox, Spatializer Audio Lab y Qsound Qxpander. [22] Usan HRTF para simular las señales acústicas recibidas en los oídos desde diferentes direcciones con reproducción estéreo de canal binario común. Por lo tanto, pueden simular ondas sonoras reflejadas y mejorar la sensación subjetiva de espacio y envolvimiento. Dado que son sistemas estéreo de paravirtualización, el objetivo principal de ellos es simular información de sonido estéreo. Los sistemas estéreo tradicionales utilizan sensores que son bastante diferentes de los oídos humanos. Aunque esos sensores pueden recibir la información acústica desde diferentes direcciones, no tienen la misma respuesta de frecuencia del sistema auditivo humano. Por lo tanto, cuando se aplica el modo de canal binario, los sistemas auditivos humanos aún no pueden sentir el campo de efectos de sonido 3D. Sin embargo, el sistema estéreo de paravirtualización 3D supera tales desventajas. Utiliza los principios de HRTF para recopilar información acústica del campo de sonido original y luego producir un campo de sonido 3D animado a través de auriculares o altavoces comunes.
Reproducción virtual estéreo multicanal
Dado que los sistemas estéreo multicanal requieren muchos canales de reproducción, algunos investigadores adoptaron las tecnologías de simulación HRTF para reducir el número de canales de reproducción. [22] Usan solo dos altavoces para simular varios altavoces en un sistema multicanal. Este proceso se denomina reproducción virtual. Esencialmente, dicho enfoque utiliza tanto el principio de diferencia interaural como la teoría del efecto de filtrado del pabellón auricular. Desafortunadamente, este tipo de enfoque no puede sustituir perfectamente al sistema estéreo multicanal tradicional, como el sistema de sonido envolvente 5.1 / 7.1 . Esto se debe a que cuando la zona de escucha es relativamente más grande, la reproducción de la simulación a través de HRTF puede provocar imágenes acústicas invertidas en posiciones simétricas.
Animales
Dado que la mayoría de los animales tienen dos orejas, muchos de los efectos del sistema auditivo humano también se pueden encontrar en otros animales. Por lo tanto, las diferencias de tiempo interaural (diferencias de fase interaural) y las diferencias de nivel interaural juegan un papel importante en la audición de muchos animales. Pero las influencias en la localización de estos efectos dependen del tamaño de la cabeza, la distancia de las orejas, la posición de las orejas y la orientación de las orejas.
Información lateral (izquierda, adelante, derecha)
Si las orejas están ubicadas a los lados de la cabeza, se pueden usar señales de localización lateral similares a las del sistema auditivo humano. Esto significa: evaluación de diferencias de tiempo interaural (diferencias de fase interaural) para frecuencias más bajas y evaluación de diferencias de nivel interaural para frecuencias más altas. La evaluación de las diferencias de fase interaural es útil, siempre que dé resultados inequívocos. Este es el caso, siempre que la distancia del oído sea menor que la mitad de la longitud (una longitud de onda máxima) de las ondas sonoras. Para los animales con una cabeza más grande que los humanos, el rango de evaluación de las diferencias de fase interaural se desplaza hacia frecuencias más bajas, para los animales con una cabeza más pequeña, este rango se desplaza hacia frecuencias más altas.
La frecuencia más baja que se puede localizar depende de la distancia del oído. Los animales con una mayor distancia al oído pueden localizar frecuencias más bajas que los humanos. Para los animales con una distancia de oreja más pequeña, la frecuencia localizable más baja es más alta que para los humanos.
Si las orejas están ubicadas a los lados de la cabeza, aparecen diferencias de nivel interaural para frecuencias más altas y pueden evaluarse para tareas de localización. Para los animales con orejas en la parte superior de la cabeza, no aparecerán sombras por la cabeza y, por lo tanto, habrá muchas menos diferencias de nivel interaural, que podrían evaluarse. Muchos de estos animales pueden mover las orejas, y estos movimientos de las orejas se pueden utilizar como una señal de localización lateral.
Odontocetes
Los delfines (y otros odontocetos) dependen de la ecolocalización para ayudar a detectar, identificar, localizar y capturar presas. Las señales de la sonda Dolphin son adecuadas para localizar múltiples objetivos pequeños en un entorno acuático tridimensional mediante el uso de banda ancha altamente direccional (ancho de haz de 3 dB de aproximadamente 10 grados) (ancho de banda de 3 dB típicamente de aproximadamente 40 kHz; frecuencias máximas entre 40 kHz y 120 kHz), clics de corta duración (aproximadamente 40 μs). Los delfines pueden localizar sonidos tanto de forma pasiva como activa (ecolocalización) con una resolución de aproximadamente 1 grado. El emparejamiento transmodal (entre visión y ecolocalización) sugiere que los delfines perciben la estructura espacial de objetos complejos interrogados a través de la ecolocalización, una hazaña que probablemente requiera resolver espacialmente las características de los objetos individuales y la integración en una representación holística de la forma del objeto. Aunque los delfines son sensibles a la intensidad binaural pequeña y a las diferencias de tiempo, la evidencia creciente sugiere que los delfines emplean señales espectrales dependientes de la posición derivadas de funciones de transferencia relacionadas con la cabeza bien desarrolladas, para la localización del sonido tanto en el plano horizontal como en el vertical. Un tiempo de integración temporal muy pequeño (264 μs) permite la localización de múltiples objetivos a diferentes distancias. Las adaptaciones de localización incluyen asimetría pronunciada del cráneo, sacos nasales y estructuras lipídicas especializadas en la frente y mandíbulas, así como oídos medios e internos acústicamente aislados.
En el plano medio (frente, arriba, atrás, abajo)
Para muchos mamíferos también hay estructuras pronunciadas en el pabellón auricular cerca de la entrada del canal auditivo. Como consecuencia, pueden aparecer resonancias dependientes de la dirección, que podrían usarse como una señal de localización adicional, similar a la localización en el plano medio del sistema auditivo humano. Hay señales de localización adicionales que también utilizan los animales.
Inclinación de la cabeza
Para la localización del sonido en el plano medio (elevación del sonido) también se pueden utilizar dos detectores, que se colocan a diferentes alturas. En los animales, sin embargo, la información aproximada de la elevación se obtiene simplemente inclinando la cabeza, siempre que el sonido dure lo suficiente para completar el movimiento. Esto explica el comportamiento innato de [ vago ] inclinar la cabeza hacia un lado cuando se trata de localizar un sonido con precisión. Para obtener una localización instantánea en más de dos dimensiones a partir de señales de diferencia de tiempo o de diferencia de amplitud, se requieren más de dos detectores.
Localización con orejas acopladas (moscas)
La diminuta mosca parásita Ormia ochracea se ha convertido en un organismo modelo en los experimentos de localización de sonidos debido a su oído único . El animal es demasiado pequeño para que la diferencia de tiempo del sonido que llega a los dos oídos se calcule de la forma habitual, pero puede determinar la dirección de las fuentes de sonido con una precisión exquisita. Las membranas timpánicas de los oídos opuestos están conectadas directamente de forma mecánica, lo que permite la resolución de diferencias de tiempo inferiores a microsegundos [23] [24] y requiere una nueva estrategia de codificación neural. [25] Ho [26] mostró que el sistema de tímpano acoplado en las ranas puede producir mayores disparidades de vibración interaural cuando solo se dispone de pequeñas diferencias en el tiempo de llegada y el nivel de sonido para la cabeza del animal. Se están realizando esfuerzos para construir micrófonos direccionales basados en la estructura de tímpano acoplado.
Localización de sonido de dos coordenadas (búhos)
La mayoría de los búhos son nocturnos o crepusculares aves de presa . Debido a que cazan de noche, deben depender de los sentidos no visuales. Los experimentos de Roger Payne [27] han demostrado que los búhos son sensibles a los sonidos de sus presas, no al calor o al olor. De hecho, las señales sonoras son necesarias y suficientes para la localización de ratones desde un lugar distante donde están posados. Para que esto funcione, los búhos deben poder localizar con precisión tanto el acimut como la elevación de la fuente de sonido.
Historia
El término 'binaural' significa literalmente 'escuchar con dos oídos' y se introdujo en 1859 para significar la práctica de escuchar el mismo sonido a través de ambos oídos, o dos sonidos discretos, uno a través de cada oído. No fue hasta 1916 que Carl Stumpf (1848-1936), filósofo y psicólogo alemán , distinguió entre la escucha dicótica, que se refiere a la estimulación de cada oído con un estímulo diferente , y la escucha diótica, la estimulación simultánea de ambos oídos con el mismo estímulo. [28]
Más tarde, resultaría evidente que la audición binaural, ya sea dicótica o diótica, es el medio por el cual se produce la localización del sonido. [28] [29] [ página necesaria ]
La consideración científica de la audición binaural comenzó antes de que el fenómeno fuera llamado así, con especulaciones publicadas en 1792 por William Charles Wells (1757–1817) basadas en su investigación sobre la visión binocular . [30] Giovanni Battista Venturi (1746–1822) realizó y describió experimentos en los que la gente intentaba localizar un sonido usando ambos oídos, o un oído bloqueado con un dedo. Este trabajo no fue seguido y solo se recuperó después de que otros descubrieron cómo funciona la localización del sonido humano. [28] [30] Lord Rayleigh (1842-1919) haría estos mismos experimentos y llegaría a los resultados, sin saber que Venturi los había hecho por primera vez, casi setenta y cinco años después. [30]
Charles Wheatstone (1802-1875) trabajó en óptica y mezcla de colores, y también exploró la audición. Inventó un dispositivo que llamó "micrófono" que incluía una placa de metal sobre cada oreja, cada una conectada a varillas de metal; usó este dispositivo para amplificar el sonido. También hizo experimentos sosteniendo diapasones en ambos oídos al mismo tiempo, o por separado, tratando de averiguar cómo funciona el sentido del oído, que publicó en 1827. [30] Ernst Heinrich Weber (1795-1878) y August Seebeck (1805) –1849) y William Charles Wells también intentaron comparar y contrastar lo que se conocería como audición binaural con los principios de la integración binocular en general. [30]
La comprensión de cómo las diferencias en las señales de sonido entre dos oídos contribuyen al procesamiento auditivo de tal manera que permite la localización y la dirección del sonido avanzó considerablemente después de la invención del estetófono por Somerville Scott Alison en 1859, quien acuñó el término 'binaural'. Alison basó el estetófono en el estetoscopio , que había sido inventado por René Théophile Hyacinthe Laennec (1781-1826); el estetófono tenía dos "pastillas" independientes, lo que permitía al usuario escuchar y comparar sonidos derivados de dos ubicaciones discretas. [30]
Ver también
- Ubicación acústica
- Ecolocalización animal
- Fusión binaural
- Detección de coincidencias en neurobiología
- Ecolocalización humana
- Localización de sonido 3D basada en la percepción
- Psicoacústica
- Hipoacusia espacial
Referencias
- ^ Jeffress LA (1948). "Una teoría del lugar de la localización del sonido". Revista de Psicología Comparada y Fisiológica . 41 (1): 35–39. doi : 10.1037 / h0061495 . PMID 18904764 .
- ^ Schnupp J., Nelken I y King AJ, 2011. Neurociencia auditiva, MIT Press, capítulo 5.
- ^ Blauert, J .: Audición espacial: la psicofísica de la localización del sonido humano; Prensa del MIT; Cambridge, Massachusetts (1983)
- ^ a b c d e f Thompson, Daniel M. Comprensión del audio: cómo aprovechar al máximo su proyecto o estudio de grabación profesional. Boston, MA: Berklee, 2005. Imprimir.
- ^ a b c Carreteras, Curtis. El tutorial de música por ordenador. Cambridge, MA: MIT, 2007. Imprimir.
- ^ a b Benade, Arthur H. Fundamentos de acústica musical. Nueva York: Oxford UP, 1976. Print.
- ^ Rayleigh L. XII. Sobre nuestra percepción de la dirección del sonido [J]. Revista y Revista de Ciencia de Londres, Edimburgo y Dublín, 1907, 13 (74): 214-232.
- ^ a b c Zhou X. Técnica de realidad virtual [J]. Ciencia de las telecomunicaciones, 1996, 12 (7): 46-50.
- ^ Ian Pitt. "Percepción auditiva" . Archivado desde el original el 10 de abril de 2010.
- ^ DeLiang Wang; Guy J. Brown (2006). Análisis computacional de la escena auditiva: principios, algoritmos y aplicaciones . Wiley interscience. ISBN 9780471741091.
Para las señales sinusoidales presentadas en el plano horizontal, la resolución espacial es más alta para los sonidos que provienen del plano medio (directamente frente al oyente) con aproximadamente 1 grado MAA, y se deteriora notablemente cuando los estímulos se mueven hacia un lado, por ejemplo, el MAA. es de aproximadamente 7 grados para los sonidos que se originan a 75 grados hacia un lado.
- ^ Localización auditiva - Introducción Columbia College, Chicago - Audio Arts & Acoustics acousticslab.org/psychoacoustics , consultado el 16 de mayo de 2021
- ^ a b Wallach, H; Newman, EB; Rosenzweig, MR (julio de 1949). "El efecto de precedencia en la localización de sonido". Revista estadounidense de psicología . 62 (3): 315–336. doi : 10.2307 / 1418275 . JSTOR 1418275 . PMID 18134356 .
- ^ a b c Wallach, Hans (octubre de 1940). "El papel de los movimientos de la cabeza y las señales vestibulares y visuales en la localización del sonido". Revista de Psicología Experimental . 27 (4): 339–368. doi : 10.1037 / h0054629 .
- ^ Batteau D W. El papel del pabellón auricular en la localización humana [J]. Actas de la Royal Society of London B: Biological Sciences, 1967, 168 (1011): 158-180.
- ^ Musicant AD, Butler R A. La influencia de las señales espectrales basadas en pabellón auricular en la localización del sonido [J]. The Journal of the Acoustical Society of America, 1984, 75 (4): 1195-1200.
- ^ "La base de datos CIPIC HRTF" . Archivado desde el original el 13 de septiembre de 2013.
- ^ Robert A. BUTLER; Richard A. HUMANSKI (1992). "Localización de sonido en el plano vertical con y sin señales espectrales de alta frecuencia" (PDF) . Percepción y psicofísica . 51 (2): 182–186. doi : 10.3758 / bf03212242 . PMID 1549436 .
- ^ Roffler Suzanne K .; Butler Robert A. (1968). "Factores que influyen en la localización del sonido en el plano vertical" . J. Acoust. Soc. Am . 43 (6): 1255-1259. doi : 10.1121 / 1.1910976 . PMID 5659493 .
- ^ Thurlow, WR "Audition" en Kling, JW & Riggs, LA, Psicología experimental , 3ª edición, Holt Rinehart & Winston, 1971, págs. 267-268.
- ^ Wallach, H (1939). "Sobre la localización del sonido". Revista de la Sociedad Americana de Acústica . 10 (4): 270-274. doi : 10.1121 / 1.1915985 .
- ^ Kidd, Sean A .; Kelly, Jack B. (15 de noviembre de 1996). "Contribución del núcleo dorsal del Lemniscus lateral a las respuestas binaurales en el colículo inferior de la rata: retrasos de tiempo interaurales" . La Revista de Neurociencia . 16 (22): 7390–7397. doi : 10.1523 / JNEUROSCI.16-22-07390.1996 . ISSN 0270-6474 . PMC 6578946 . PMID 8929445 .
- ^ a b c Zhao R. Estudio del sistema de localización de sonido de transmisión auditiva [D], Universidad de Ciencia y Tecnología de China, 2006.
- ^ Miles RN, Robert D, Hoy RR (diciembre de 1995). "Oídos acoplados mecánicamente para la audición direccional en la mosca parasitoide Ormia ochracea". J Acoust Soc Am . 98 (6): 3059–70. doi : 10.1121 / 1.413830 . PMID 8550933 .
- ^ Robert D, Miles RN, Hoy RR (1996). "Audición direccional por acoplamiento mecánico en la mosca parasitoide Ormia ochracea". J Comp Physiol [A] . 179 (1): 29–44. doi : 10.1007 / BF00193432 . PMID 8965258 . S2CID 21452506 .
- ^ Mason AC, Oshinsky ML, Hoy RR (abril de 2001). "Audición direccional hiperaguda en un sistema auditivo a microescala". Naturaleza . 410 (6829): 686–90. doi : 10.1038 / 35070564 . PMID 11287954 . S2CID 4370356 .
- ^ Ho CC, Narins PM (abril de 2006). "Direccionalidad de las orejas del receptor de diferencia de presión en la rana leopardo del norte, Rana pipiens pipiens". J Comp Physiol [A] . 192 (4): 417–29. doi : 10.1007 / s00359-005-0080-7 . PMID 16380842 . S2CID 5881898 .
- ^ Payne, Roger S., 1962. Cómo la lechuza localiza a sus presas al oír. The Living Bird, Primera publicación anual del Laboratorio de Ornitología de Cornell , 151-159
- ^ a b c Wade, Nueva Jersey; Ono, H (2005). "De dicóptico a dicótico: contrastes históricos entre visión binocular y audición binaural". Percepción . 34 (6): 645–68. doi : 10.1068 / p5327 . PMID 16042189 . S2CID 43674057 .
- ^ Beyer, Robert T. (1999). Sonidos de nuestro tiempo: doscientos años de acústica . Nueva York: Springer. ISBN 978-0-387-98435-3.
- ^ a b c d e f Wade, Nicholas J .; Deutsch, Diana (julio de 2008). "Audición binaural: antes y después del estetófono" (PDF) . Acústica hoy . 4 (3): 16-27. doi : 10.1121 / 1.2994724 .
enlaces externos
- auditoryneuroscience.com: colección de archivos multimedia y demostraciones flash relacionadas con la audición espacial
- Colección de referencias sobre localización de sonido
- Artículos científicos sobre la capacidad de localización del sonido de diferentes especies de mamíferos.
- Procesamiento de diferencias de intensidad interaural en neuronas auditivas del mesencéfalo: efectos de una entrada inhibitoria temprana transitoria
- Centro de aprendizaje en línea - Audición y comprensión auditiva
- HearCom: Hearing in the Communication Society, un proyecto de investigación de la UE
- Investigación sobre "Localización sin visibilidad directa (NLOS) para ambientes interiores" por CMR en UNSW
- Introducción a la localización de sonidos
- Sonido y habitación
- Introducción a la holografía acústica
- Introducción a la formación de haces acústicos