Percepción del habla


De Wikipedia, la enciclopedia libre
  (Redirigido de Comprensión del habla )
Saltar a navegación Saltar a búsqueda

La percepción del habla es el proceso mediante el cual se escuchan, interpretan y comprenden los sonidos del lenguaje . El estudio de la percepción del habla está estrechamente vinculado a los campos de la fonología y la fonética en lingüística y la psicología cognitiva y la percepción en psicología . La investigación en la percepción del habla busca comprender cómo los oyentes humanos reconocen los sonidos del habla y utilizan esta información para comprender el lenguaje hablado. La investigación sobre la percepción del habla tiene aplicaciones en la construcción de sistemas informáticos que pueden reconocer el habla., en la mejora del reconocimiento de voz para oyentes con problemas de audición y lenguaje, y en la enseñanza de idiomas extranjeros.

El proceso de percibir el habla comienza al nivel de la señal de sonido y el proceso de audición. (Para obtener una descripción completa del proceso de audición, consulte Audición ). Después de procesar la señal auditiva inicial, los sonidos del habla se procesan aún más para extraer señales acústicas e información fonética. Esta información de voz se puede utilizar para procesos de lenguaje de nivel superior, como el reconocimiento de palabras.

Señales acústicas

Figura 1: Espectrogramas de las sílabas "dee" (arriba), "dah" (medio) y "doo" (abajo) que muestran cómo las transiciones de los formantes de inicio que definen perceptualmente la consonante [d] difieren según la identidad de la siguiente vocal . (Los formantes están resaltados por líneas punteadas rojas; las transiciones son los comienzos de flexión de las trayectorias de los formantes).

Las señales acústicas son señales sensoriales contenidas en la señal de sonido del habla que se utilizan en la percepción del habla para diferenciar los sonidos del habla que pertenecen a diferentes categorías fonéticas . Por ejemplo, una de las señales más estudiadas en el habla es el tiempo de inicio de la voz o VOT. VOT es una señal principal que señala la diferencia entre oclusivas sonoras y sordas, como "b" y "p". Otras señales diferencian los sonidos que se producen en diferentes lugares de articulación o formas de articulación . El sistema de voz también debe combinar estas señales para determinar la categoría de un sonido de voz específico. Esto a menudo se piensa en términos de representaciones abstractas de fonemas.. Estas representaciones se pueden combinar para su uso en el reconocimiento de palabras y otros procesos del lenguaje.

No es fácil identificar a qué señales acústicas son sensibles los oyentes cuando perciben un sonido de habla en particular:

A primera vista, la solución al problema de cómo percibimos el habla parece engañosamente simple. Si uno pudiera identificar tramos de la forma de onda acústica que corresponden a unidades de percepción, entonces el camino del sonido al significado sería claro. Sin embargo, esta correspondencia o cartografía ha resultado extremadamente difícil de encontrar, incluso después de unos cuarenta y cinco años de investigación sobre el problema. [1]

Si un aspecto específico de la forma de onda acústica indicara una unidad lingüística, una serie de pruebas con sintetizadores de voz sería suficiente para determinar tal señal o señales. Sin embargo, existen dos obstáculos importantes:

  1. Un aspecto acústico de la señal de voz puede indicar diferentes dimensiones lingüísticamente relevantes. Por ejemplo, la duración de una vocal en inglés puede indicar si la vocal está acentuada o no, o si está en una sílaba cerrada por una consonante sonora o sorda, y en algunos casos (como en inglés americano / ɛ / y / æ / ) puede distinguir la identidad de las vocales. [2] Algunos expertos incluso argumentan que la duración puede ayudar a distinguir lo que tradicionalmente se llama vocales cortas y largas en inglés. [3]
  2. Una unidad lingüística puede recibir indicaciones de varias propiedades acústicas. Por ejemplo, en un experimento clásico, Alvin Liberman (1957) mostró que las transiciones del formante de inicio de / d / difieren dependiendo de la siguiente vocal (ver Figura 1) pero todos son interpretados como el fonema / d / por los oyentes. [4]

Linealidad y el problema de la segmentación

Figura 2: Un espectrograma de la frase "Te debo". No existen límites claramente distinguibles entre los sonidos del habla.

Aunque los oyentes perciben el habla como un flujo de unidades discretas [ cita requerida ] ( fonemas , sílabas y palabras ), esta linealidad es difícil de ver en la señal física del habla (ver un ejemplo en la Figura 2). Los sonidos del habla no se suceden estrictamente, sino que se superponen. [5] Un sonido de habla está influenciado por los que preceden y los que siguen. Esta influencia puede incluso ejercerse a una distancia de dos o más segmentos (y a través de límites de sílabas y palabras). [5]

Debido a que la señal de voz no es lineal, existe un problema de segmentación. Es difícil delimitar un tramo de señal del habla como perteneciente a una sola unidad perceptiva. Como ejemplo, las propiedades acústicas del fonema / d / dependerán de la producción de la siguiente vocal (debido a la coarticulación ).

Falta de invariancia

La investigación y aplicación de la percepción del habla debe abordar varios problemas que resultan de lo que se ha denominado falta de invariancia. Es difícil encontrar relaciones constantes y confiables entre un fonema de una lengua y su manifestación acústica en el habla. Hay varias razones para esto:

Variación inducida por el contexto

El entorno fonético afecta las propiedades acústicas de los sonidos del habla. Por ejemplo, / u / en inglés aparece al frente cuando está rodeado por consonantes coronales . [6] O bien, el tiempo de inicio de la voz que marca el límite entre las oclusivas sonoras y sordas es diferente para las oclusivas labiales, alveolares y velares y cambian bajo estrés o dependiendo de la posición dentro de una sílaba. [7]

Variación debido a las diferentes condiciones del habla.

Un factor importante que causa variación es la diferencia en la velocidad del habla. Muchos contrastes fonémicos están constituidos por características temporales (vocales o consonantes cortas frente a largas, africadas frente a fricativas, oclusivas frente a deslizamientos, oclusivas sonoras frente a sordas, etc.) y ciertamente se ven afectados por los cambios en el tempo del habla. [1] Otra fuente importante de variación es el cuidado articulatorio versus el descuido que es típico del habla conectada (el "subimpulso" articulatorio se refleja obviamente en las propiedades acústicas de los sonidos producidos).

Variación debida a la diferente identidad del hablante

La estructura acústica resultante de las producciones concretas del habla depende de las propiedades físicas y psicológicas de los hablantes individuales. Los hombres, las mujeres y los niños generalmente producen voces que tienen un tono diferente. Debido a que los hablantes tienen tractos vocales de diferentes tamaños (especialmente debido al sexo y la edad), las frecuencias de resonancia ( formantes ), que son importantes para el reconocimiento de los sonidos del habla, variarán en sus valores absolutos entre los individuos [8] (consulte la Figura 3 para ver una ilustración de esta). Las investigaciones muestran que los bebés a la edad de 7.5 meses no pueden reconocer la información presentada por hablantes de diferentes géneros; sin embargo, a la edad de 10,5 meses, pueden detectar las similitudes. [9]El dialecto y el acento extranjero también pueden causar variación, al igual que las características sociales del hablante y del oyente. [10]

Constancia y normalización perceptual

Figura 3: El panel de la izquierda muestra las 3 vocales periféricas del inglés americano / i / , / ɑ / y / u / en un gráfico estándar F1 por F2 (en Hz). El desajuste entre los valores masculinos, femeninos y infantiles es evidente. En el panel de la derecha, las distancias de los formantes (en Bark ) en lugar de los valores absolutos se trazan utilizando el procedimiento de normalización propuesto por Syrdal y Gopal en 1986. [11] Los valores de los formantes se toman de Hillenbrand et al. (1995) [8]

A pesar de la gran variedad de hablantes y condiciones diferentes, los oyentes perciben las vocales y consonantes como categorías constantes. Se ha propuesto que esto se logra mediante el proceso de normalización perceptual en el que los oyentes filtran el ruido (es decir, la variación) para llegar a la categoría subyacente. Las diferencias en el tamaño del tracto vocal dan como resultado una variación de la frecuencia de los formantes entre los hablantes; por lo tanto, un oyente tiene que ajustar su sistema de percepción a las características acústicas de un hablante en particular. Esto se puede lograr considerando las proporciones de formantes en lugar de sus valores absolutos. [11] [12] [13]Este proceso se ha denominado normalización del tracto vocal (consulte la Figura 3 para ver un ejemplo). De manera similar, se cree que los oyentes ajustan la percepción de la duración al tempo actual del habla que están escuchando; esto se conoce como normalización de la velocidad del habla.

Si la normalización tiene lugar o no y cuál es su naturaleza exacta es una cuestión de controversia teórica (véanse las teorías a continuación). La constancia perceptiva es un fenómeno que no es específico únicamente de la percepción del habla; también existe en otros tipos de percepción.

Percepción categórica

Figura 4: Ejemplo de funciones de identificación (rojo) y discriminación (azul)

La percepción categórica está involucrada en los procesos de diferenciación perceptiva. Las personas perciben los sonidos del habla de manera categórica, es decir, es más probable que noten las diferencias entre categorías (fonemas) que dentro de categorías. Por tanto, el espacio perceptivo entre categorías está deformado, los centros de categorías (o "prototipos") funcionan como un tamiz [14] o como imanes [15] para los sonidos del habla entrantes.

En un continuo artificial entre una oclusiva bilabial sorda y una sonora , cada nuevo paso difiere del anterior en la cantidad de VOT . El primer sonido es un pre-sonoro [b] , es decir, tiene un VOT negativo. Entonces, el aumento de la VOT, que llega a cero, es decir, la oclusiva es una llanura unaspirated sin voz [p] . Gradualmente, agregando la misma cantidad de VOT a la vez, la oclusiva es eventualmente un bilabial sordo fuertemente aspirado [pʰ] . (Este continuo fue utilizado en un experimento de Lisker y Abramson en 1970. [16] Los sonidos que usaron están disponibles en línea.) En este continuo de, por ejemplo, siete sonidos, los oyentes nativos de inglés identificarán los primeros tres sonidos como / b / y los últimos tres sonidos como / p / con un límite claro entre las dos categorías. [16] Una prueba de identificación (o categorización) de dos alternativas producirá una función de categorización discontinua (ver curva roja en la Figura 4).

En las pruebas de la capacidad de discriminar entre dos sonidos con valores VOT variables pero con una distancia VOT constante entre sí (20 ms, por ejemplo), es probable que los oyentes se desempeñen al nivel de azar si ambos sonidos caen dentro de la misma categoría y en casi 100 % de nivel si cada sonido cae en una categoría diferente (consulte la curva de discriminación azul en la Figura 4).

La conclusión a extraer tanto de la prueba de identificación como de la de discriminación es que los oyentes tendrán una sensibilidad diferente al mismo aumento relativo en VOT dependiendo de si se cruzó o no el límite entre categorías. También se atestigua un ajuste de percepción similar para otras señales acústicas.

Influencias de arriba hacia abajo

En un experimento clásico, Richard M. Warren (1970) reemplazó un fonema de una palabra con un sonido parecido al de la tos. Perceptualmente, sus sujetos restauraron el sonido del habla faltante sin ninguna dificultad y no pudieron identificar con precisión qué fonema había sido alterado, [17] un fenómeno conocido como efecto de restauración fonémica . Por tanto, el proceso de percepción del habla no es necesariamente unidireccional.

Otro experimento básico comparó el reconocimiento de palabras habladas naturalmente dentro de una frase con las mismas palabras de forma aislada, encontrando que la precisión de la percepción generalmente disminuye en esta última condición. Para probar la influencia del conocimiento semántico en la percepción, Garnes y Bond (1976) utilizaron de manera similar oraciones portadoras en las que las palabras objetivo solo diferían en un solo fonema (bahía / día / gay, por ejemplo) cuya calidad cambiaba a lo largo de un continuo. Cuando se coloca en diferentes oraciones que cada uno conduce naturalmente a una interpretación, los oyentes tienden a juzgar las palabras ambiguas de acuerdo con el significado de la oración completa [18] . [19] Es decir, procesos de lenguaje de nivel superior relacionados con la morfología , la sintaxis o la semántica. puede interactuar con los procesos básicos de percepción del habla para ayudar en el reconocimiento de los sonidos del habla.

Puede darse el caso de que no sea necesario y tal vez incluso no sea posible que un oyente reconozca los fonemas antes de reconocer las unidades superiores, como las palabras, por ejemplo. Después de obtener al menos una pieza fundamental de información sobre la estructura fonémica de la entidad percibida a partir de la señal acústica, los oyentes pueden compensar los fonemas perdidos o enmascarados utilizando su conocimiento del lenguaje hablado. Los mecanismos compensatorios pueden incluso operar a nivel de oración, como en canciones, frases y versos aprendidos, un efecto respaldado por patrones de codificación neuronal consistentes con los fragmentos de habla continua perdidos, [20] a pesar de la falta de toda la información sensorial ascendente relevante .

Deficiencia adquirida del lenguaje

La primera hipótesis de la percepción del habla se utilizó con pacientes que adquirieron un déficit de comprensión auditiva, también conocido como afasia receptiva . Desde entonces ha habido muchas discapacidades que han sido clasificadas, lo que resultó en una verdadera definición de "percepción del habla". [21]El término "percepción del habla" describe el proceso de interés que emplea contextos subléxicos para el proceso de sondeo. Consiste en muchas funciones lingüísticas y gramaticales diferentes, tales como: características, segmentos (fonemas), estructura silábica (unidad de pronunciación), formas fonológicas de las palabras (cómo se agrupan los sonidos), características gramaticales, morfemia (prefijos y sufijos) y información semántica (el significado de las palabras). En los primeros años, estaban más interesados ​​en la acústica del habla. Por ejemplo, estaban analizando las diferencias entre / ba / o / da /, pero ahora la investigación se ha dirigido a la respuesta del cerebro a los estímulos. En los últimos años, se ha desarrollado un modelo para crear una idea de cómo funciona la percepción del habla; este modelo se conoce como modelo de flujo dual.Este modelo ha cambiado drásticamente de cómo los psicólogos ven la percepción. La primera sección del modelo de flujo dual es la vía ventral. Esta vía incorpora la circunvolución temporal media, el surco temporal inferior y quizás elcircunvolución temporal inferior . La vía ventral muestra representaciones fonológicas a las representaciones léxicas o conceptuales, que es el significado de las palabras. La segunda sección del modelo de doble flujo es la vía dorsal. Esta vía incluye la parietotemporal de Sylvia, la circunvolución frontal inferior, la ínsula anterior y la corteza premotora. Su función principal es tomar los estímulos sensoriales o fonológicos y transferirlos a una representación articulatorio-motora (formación del habla). [22]

Afasia

La afasia es un deterioro del procesamiento del lenguaje causado por daños en el cerebro. Las diferentes partes del procesamiento del lenguaje se ven afectadas según el área del cerebro que está dañada, y la afasia se clasifica además según la ubicación de la lesión o la constelación de síntomas. El daño en el área del cerebro de Broca a menudo resulta en una afasia expresiva que se manifiesta como un deterioro en la producción del habla. El daño en el área de Wernicke a menudo resulta en afasia receptiva donde el procesamiento del habla se ve afectado. [23]

La afasia con alteración de la percepción del habla suele mostrar lesiones o daños localizados en los lóbulos temporal o parietal izquierdos . Las dificultades léxicas y semánticas son comunes y la comprensión puede verse afectada. [23]

Agnosia

La agnosia es "la pérdida o disminución de la capacidad de reconocer objetos o estímulos familiares generalmente como resultado de un daño cerebral". [24] Hay varios tipos diferentes de agnosia que afectan a cada uno de nuestros sentidos, pero los dos más comunes relacionados con el habla son la agnosia del habla y la fonagnosia .

Agnosia del habla : la sordera pura de palabras, o agnosia del habla, es un impedimento en el que una persona mantiene la capacidad de escuchar, producir el habla e incluso leer el habla, pero no puede comprender o percibir correctamente el habla. Estos pacientes parecen tener todas las habilidades necesarias para procesar correctamente el habla, sin embargo, parecen no tener experiencia asociada con los estímulos del habla. Los pacientes han informado: "Puedo oírte hablar, pero no puedo traducirlo". [25]A pesar de que están recibiendo y procesando físicamente los estímulos del habla, sin la capacidad de determinar el significado del habla, esencialmente son incapaces de percibir el habla en absoluto. No se conocen tratamientos que se hayan encontrado, pero a partir de estudios de casos y experimentos se sabe que la agnosia del habla está relacionada con lesiones en el hemisferio izquierdo o en ambos, específicamente disfunciones temporoparietales derechas. [26]

Phonagnosia : Phonagnosia se asocia con la incapacidad de reconocer voces familiares. En estos casos, los estímulos del habla pueden escucharse e incluso entenderse pero se pierde la asociación del habla a una determinada voz. Esto puede deberse al "procesamiento anormal de propiedades vocales complejas (timbre, articulación y prosodia, elementos que distinguen una voz individual"). [27] No existe un tratamiento conocido; sin embargo, hay un informe de caso de una mujer epiléptica que comenzó Sus resultados de EEG y MRI mostraron "una lesión hiperintensa en T2 cortical derecha parietal sin realce de gadolinio y con un deterioro discreto de la difusión de moléculas de agua". [27] Entonces, aunque no se ha descubierto ningún tratamiento, la fonagnosia puede correlacionarse con la disfunción cortical parietal postictal.

Percepción del habla infantil

Los bebés comienzan el proceso de adquisición del lenguaje al poder detectar diferencias muy pequeñas entre los sonidos del habla. Pueden discriminar todos los posibles contrastes del habla (fonemas). Gradualmente, a medida que se exponen a su idioma nativo, su percepción se vuelve específica del idioma, es decir, aprenden a ignorar las diferencias dentro de las categorías fonémicas del idioma (diferencias que pueden ser contrastantes en otros idiomas; por ejemplo, el inglés distingue dos voces categorías de oclusivas , mientras que el tailandés tiene tres categorías; los bebés deben aprender qué diferencias son distintivas en el uso de su lengua materna y cuáles no). A medida que los bebés aprenden a clasificar los sonidos del habla entrantes en categorías, ignorando las diferencias irrelevantes y reforzando las contrastantes, su percepción se vuelve categórica . Los bebés aprenden a contrastar diferentes fonemas vocales de su lengua materna aproximadamente a los 6 meses de edad. Los contrastes consonánticos nativos se adquieren a los 11 o 12 meses de edad. [28] Algunos investigadores han propuesto que los bebés pueden aprender las categorías de sonido de su lengua materna a través de la escucha pasiva, utilizando un proceso llamado aprendizaje estadístico.. Otros incluso afirman que ciertas categorías de sonido son innatas, es decir, están genéticamente especificadas (ver discusión sobre distinción categórica innata vs. adquirida ).

Si a los bebés de un día se les presenta la voz de su madre que habla normalmente, de manera anormal (en un tono monótono) y la voz de un extraño, solo reaccionan cuando la voz de su madre habla normalmente. Cuando se reproduce un sonido humano y uno no humano, los bebés giran la cabeza solo hacia la fuente del sonido humano. Se ha sugerido que el aprendizaje auditivo comienza ya en el período prenatal. [29]

Una de las técnicas utilizadas para examinar cómo los bebés perciben el habla, además del procedimiento de giro de cabeza mencionado anteriormente, es medir su tasa de succión. En tal experimento, un bebé está chupando un pezón especial mientras se le presentan sonidos. Primero, se establece la tasa de succión normal del bebé. Luego, se reproduce un estímulo repetidamente. Cuando el bebé escucha el estímulo por primera vez, la frecuencia de succión aumenta, pero a medida que el bebé se habitúa a la estimulación, la frecuencia de succión disminuye y se estabiliza. Luego, se le juega un nuevo estímulo al bebé. Si el bebé percibe el estímulo recién introducido como diferente del estímulo de fondo, la tasa de succión aumentará. [29]La tasa de succión y el método de voltear la cabeza son algunos de los métodos conductuales más tradicionales para estudiar la percepción del habla. Entre los nuevos métodos (consulte Métodos de investigación a continuación) que nos ayudan a estudiar la percepción del habla, la espectroscopia de infrarrojo cercano se usa ampliamente en bebés. [28]

También se ha descubierto que aunque la capacidad de los bebés para distinguir entre las diferentes propiedades fonéticas de varios idiomas comienza a declinar alrededor de los nueve meses, es posible revertir este proceso exponiéndolos a un nuevo idioma de manera suficiente. En un estudio de investigación realizado por Patricia K. Kuhl, Feng-Ming Tsao y Huei-Mei Liu, se descubrió que si un hablante nativo de chino mandarín habla con los bebés e interactúa con ellos, en realidad se les puede condicionar para que retengan su capacidad. para distinguir diferentes sonidos del habla dentro del mandarín que son muy diferentes de los sonidos del habla que se encuentran en el idioma inglés. Demostrando así que, dadas las condiciones adecuadas, es posible prevenir la pérdida de la capacidad de los bebés para distinguir los sonidos del habla en idiomas distintos de los que se encuentran en el idioma nativo.[30]

Idioma cruzado y segundo idioma

Una gran cantidad de investigación ha estudiado cómo los usuarios perciben de una lengua extranjera discurso (en adelante, la percepción del habla-lenguaje cruz) o un segundo idioma de voz (segundo idioma percepción del habla). Este último pertenece al dominio de la adquisición de una segunda lengua .

Los idiomas difieren en sus inventarios fonémicos. Naturalmente, esto crea dificultades cuando se encuentra un idioma extranjero. Por ejemplo, si dos sonidos de una lengua extranjera se asimilan a una sola categoría de lengua materna, la diferencia entre ellos será muy difícil de discernir. Un ejemplo clásico de esta situación es la observación de que los estudiantes japoneses de inglés tendrán problemas para identificar o distinguir las consonantes líquidas en inglés / l / y / r / (ver Percepción del inglés / r / y / l / por hablantes de japonés ). [31]

Best (1995) propuso un modelo de asimilación perceptual que describe posibles patrones de asimilación de categorías de idiomas cruzados y predice sus consecuencias. [32] Flege (1995) formuló un modelo de aprendizaje del habla que combina varias hipótesis sobre la adquisición del habla en un segundo idioma (L2) y que predice, en palabras simples, que un sonido L2 que no es demasiado similar a un idioma nativo (L1) El sonido será más fácil de adquirir que un sonido L2 que es relativamente similar a un sonido L1 (porque el alumno lo percibirá como más obviamente "diferente"). [33]

En problemas de lenguaje o audición

La investigación sobre cómo las personas con discapacidad auditiva o del lenguaje perciben el habla no solo tiene como objetivo descubrir posibles tratamientos. Puede proporcionar información sobre los principios que subyacen a la percepción del habla sin alteraciones. [34] Dos áreas de investigación pueden servir como ejemplo:

Oyentes con afasia

La afasia afecta tanto la expresión como la recepción del lenguaje. Los dos tipos más comunes, la afasia expresiva y la afasia receptiva , afectan la percepción del habla hasta cierto punto. La afasia expresiva causa dificultades moderadas para la comprensión del lenguaje. El efecto de la afasia receptiva sobre la comprensión es mucho más severo. Se conviene en que los afásicos sufren deficiencias de percepción. Por lo general, no pueden distinguir completamente el lugar de articulación y la voz. [35] En cuanto a otras características, las dificultades varían. Aún no se ha demostrado si las habilidades de percepción del habla de bajo nivel se ven afectadas en los pacientes con afasia o si sus dificultades son causadas solo por un deterioro de nivel superior. [35]

Oyentes con implantes cocleares

La implantación coclear restaura el acceso a la señal acústica en personas con pérdida auditiva neurosensorial. La información acústica que transmite un implante suele ser suficiente para que los usuarios del implante reconozcan correctamente el habla de las personas que conocen incluso sin pistas visuales. [36] Para los usuarios de implantes cocleares, es más difícil entender altavoces y sonidos desconocidos. Las capacidades perceptivas de los niños que recibieron un implante después de los dos años son significativamente mejores que las de los que se implantaron en la edad adulta. Se ha demostrado que varios factores influyen en el rendimiento perceptivo, específicamente: duración de la sordera antes de la implantación, edad de inicio de la sordera, edad de implantación (tales efectos de la edad pueden estar relacionados con la hipótesis del período crítico) y la duración del uso de un implante. Existen diferencias entre los niños con sordera congénita y adquirida. Los niños con sordera poslingual tienen mejores resultados que los sordos prelocutivos y se adaptan más rápidamente a un implante coclear. [36] Tanto en niños con implantes cocleares como con audición normal, el tiempo de aparición de las vocales y la voz se vuelve predominante en el desarrollo antes que la capacidad de discriminar el lugar de articulación. Varios meses después de la implantación, los niños con implantes cocleares pueden normalizar la percepción del habla.

Ruido

Uno de los problemas fundamentales en el estudio del habla es cómo lidiar con el ruido. Esto se demuestra por la dificultad para reconocer el habla humana que tienen los sistemas de reconocimiento por computadora. Si bien pueden reconocer bien el habla si se les capacita en la voz de un hablante específico y en condiciones silenciosas, estos sistemas a menudo funcionan mal en situaciones de escucha más realistas donde los humanos entenderían el habla sin dificultad relativa. Para emular los patrones de procesamiento que se mantendrían en el cerebro en condiciones normales, el conocimiento previo es un factor neuronal clave, ya que un historial de aprendizaje sólido puede anular hasta cierto punto los efectos de enmascaramiento extremos involucrados en la ausencia total de señales de habla continuas. [20]

Conexión música-idioma

La investigación sobre la relación entre la música y la cognición es un campo emergente relacionado con el estudio de la percepción del habla. Originalmente se teorizó que las señales neuronales de la música se procesaban en un "módulo" especializado en el hemisferio derecho del cerebro. Por el contrario, las señales neuronales del lenguaje debían ser procesadas por un "módulo" similar en el hemisferio izquierdo. [37] Sin embargo, utilizando tecnologías como las máquinas de resonancia magnética funcional, la investigación ha demostrado que dos regiones del cerebro tradicionalmente consideradas exclusivamente para procesar el habla, las áreas de Broca y Wernicke, también se activan durante actividades musicales como escuchar una secuencia de acordes musicales. [37]Otros estudios, como el realizado por Marques et al. en 2006 mostró que los niños de 8 años que recibieron seis meses de entrenamiento musical mostraron un aumento tanto en su rendimiento de detección de tono como en sus medidas electrofisiológicas cuando se les hizo escuchar un idioma extranjero desconocido. [38]

Por el contrario, algunas investigaciones han revelado que, en lugar de que la música afecte nuestra percepción del habla, nuestro habla nativa puede afectar nuestra percepción de la música. Un ejemplo es la paradoja del tritono . La paradoja del tritono es cuando al oyente se le presentan dos tonos generados por computadora (como C y F-Sharp) que están separados por media octava (o un tritono) y luego se le pide que determine si el tono de la secuencia es descendente o descendente. ascendente. Uno de esos estudios, realizado por la Sra. Diana Deutsch, encontró que la interpretación del oyente del tono ascendente o descendente estaba influenciada por el idioma o dialecto del oyente, mostrando una variación entre los que se criaron en el sur de Inglaterra y los de California o de los de Vietnam y aquellos en California cuya lengua materna era el inglés. [37]Un segundo estudio, realizado en 2006 en un grupo de hablantes de inglés y 3 grupos de estudiantes de Asia oriental en la Universidad del Sur de California, descubrió que los hablantes de inglés que habían comenzado su formación musical a los 5 años o antes tenían un 8% de posibilidades de tener un tono perfecto. [37]

Fenomenología del habla

La experiencia del habla

Casey O'Callaghan, en su artículo Experimentar el habla , analiza si "la experiencia perceptiva de escuchar el habla difiere en carácter fenomenal" [39] con respecto a la comprensión del lenguaje que se está escuchando. Sostiene que la experiencia de un individuo al escuchar un idioma que comprende, en contraposición a su experiencia al escuchar un idioma del que no tienen conocimiento, muestra una diferencia en las características fenoménicas que él define como "aspectos de cómo es una experiencia" [39]. para un individuo.

Si a un sujeto que es un hablante nativo de inglés monolingüe se le presenta un estímulo del habla en alemán, la cadena de fonemas aparecerá como meros sonidos y producirá una experiencia muy diferente que si se le presentara exactamente el mismo estímulo a un sujeto que habla alemán .

También examina cómo cambia la percepción del habla cuando uno aprende un idioma. Si a un sujeto sin conocimiento del idioma japonés se le presentara un estímulo del habla japonesa, y luego se le dieran exactamente los mismos estímulos después de haberle enseñado japonés, este mismo individuo tendría una experiencia extremadamente diferente .

Métodos de búsqueda

Los métodos utilizados en la investigación de la percepción del habla se pueden dividir aproximadamente en tres grupos: métodos conductuales, computacionales y, más recientemente, neurofisiológicos.

Métodos de comportamiento

Los experimentos de comportamiento se basan en un papel activo de un participante, es decir, a los sujetos se les presentan estímulos y se les pide que tomen decisiones conscientes sobre ellos. Esto puede tomar la forma de una prueba de identificación, una prueba de discriminación , una clasificación de similitud, etc. Estos tipos de experimentos ayudan a proporcionar una descripción básica de cómo los oyentes perciben y categorizan los sonidos del habla.

Discurso de onda sinusoidal

La percepción del habla también se ha analizado a través del habla sinusoidal, una forma de habla sintética en la que la voz humana es reemplazada por ondas sinusoidales que imitan las frecuencias y amplitudes presentes en el habla original. Cuando a los sujetos se les presenta por primera vez este discurso, el discurso de onda sinusoidal se interpreta como ruidos aleatorios. Pero cuando se informa a los sujetos de que el estímulo en realidad es el habla y se les dice lo que se dice, "se produce un cambio distintivo, casi inmediato" [39] en la forma en que se percibe el habla de onda sinusoidal.

Métodos computacionales

El modelado computacional también se ha utilizado para simular cómo el cerebro puede procesar el habla para producir comportamientos que se observan. Los modelos informáticos se han utilizado para abordar varias cuestiones en la percepción del habla, incluida la forma en que se procesa la propia señal de sonido para extraer las señales acústicas utilizadas en el habla y cómo se utiliza la información del habla para procesos de nivel superior, como el reconocimiento de palabras. [40]

Métodos neurofisiológicos

Los métodos neurofisiológicos se basan en la utilización de información proveniente de procesos más directos y no necesariamente conscientes (pre-atentativos). A los sujetos se les presentan estímulos del habla en diferentes tipos de tareas y se miden las respuestas del cerebro. El cerebro mismo puede ser más sensible de lo que parece a través de respuestas conductuales. Por ejemplo, es posible que el sujeto no muestre sensibilidad a la diferencia entre dos sonidos del habla en una prueba de discriminación, pero las respuestas cerebrales pueden revelar sensibilidad a estas diferencias. [28] Los métodos utilizados para medir las respuestas neuronales al habla incluyen potenciales relacionados con eventos , magnetoencefalografía y espectroscopia del infrarrojo cercano . Una respuesta importante utilizada conLos potenciales relacionados con eventos son la negatividad de desajuste , que ocurre cuando los estímulos del habla son acústicamente diferentes de un estímulo que el sujeto escuchó previamente.

Los métodos neurofisiológicos se introdujeron en la investigación de la percepción del habla por varias razones:

Las respuestas conductuales pueden reflejar procesos conscientes tardíos y verse afectadas por otros sistemas como la ortografía y, por lo tanto, pueden enmascarar la capacidad del hablante para reconocer sonidos basados ​​en distribuciones acústicas de bajo nivel. [41]

Sin la necesidad de participar activamente en la prueba, incluso los bebés pueden ser evaluados; esta característica es crucial en la investigación de los procesos de adquisición. La posibilidad de observar procesos auditivos de bajo nivel independientemente de los de nivel superior permite abordar cuestiones teóricas de larga data, como si los humanos poseen o no un módulo especializado para percibir el habla [42] [43] o si algunos invariancia acústica compleja (ver ausencia de invariancia arriba) subyace al reconocimiento de un sonido de habla. [44]

Teorías

Teoría motora

Alvin Liberman y sus colegas de Haskins Laboratories llevaron a cabo algunos de los primeros trabajos en el estudio de cómo los humanos perciben los sonidos del habla . [45] Usando un sintetizador de voz, construyeron sonidos de voz que variaban en lugar de articulación a lo largo de un continuo de / bɑ / a / dɑ / a / ɡɑ / . Se pidió a los oyentes que identificaran qué sonido escuchaban y que discriminaran entre dos sonidos diferentes. Los resultados del experimento mostraron que los oyentes agruparon los sonidos en categorías discretas, a pesar de que los sonidos que escuchaban variaban continuamente. A partir de estos resultados, propusieron la noción de percepción categórica como un mecanismo por el cual los humanos pueden identificar los sonidos del habla.

Investigaciones más recientes que utilizan diferentes tareas y métodos sugieren que los oyentes son muy sensibles a las diferencias acústicas dentro de una sola categoría fonética, contrariamente a una descripción estricta y categórica de la percepción del habla.

Para proporcionar una explicación teórica de los datos de percepción categórica , Liberman y sus colegas [46] elaboraron la teoría motora de la percepción del habla, donde "se suponía que la codificación articulatoria complicada estaba decodificada en la percepción del habla por los mismos procesos que están involucrados en producción " [1] (esto se conoce como análisis por síntesis). Por ejemplo, la consonante / d / en inglés puede variar en sus detalles acústicos en diferentes contextos fonéticos (ver arriba ), pero todos / d /La percepción de un oyente cae dentro de una categoría (oclusiva alveolar sonora) y eso se debe a que "las representaciones lingüísticas son segmentos abstractos, canónicos, fonéticos o los gestos que subyacen a estos segmentos". [1] Al describir las unidades de percepción, Liberman luego abandonó los movimientos articulatorios y procedió a los comandos neuronales a los articuladores [47] e incluso más tarde a los gestos articulatorios intencionados, [48] así "la representación neuronal del enunciado que determina la producción del hablante es el objeto distal que percibe el oyente ". [48] La teoría está estrechamente relacionada con la modularidad hipótesis, que propone la existencia de un módulo de propósito especial, que se supone que es innato y probablemente específico para el ser humano.

La teoría ha sido criticada en términos de no poder "dar cuenta de cómo las señales acústicas se traducen en gestos intencionados" [49] por los oyentes. Además, no está claro cómo se codifica / decodifica la información indexada (por ejemplo, la identidad del hablante) junto con la información lingüísticamente relevante.

Teoría ejemplar

Los modelos ejemplares de percepción del habla difieren de las cuatro teorías mencionadas anteriormente, que suponen que no hay conexión entre el reconocimiento de palabras y el del hablante y que la variación entre los hablantes es "ruido" que debe filtrarse.

Los enfoques basados ​​en ejemplos afirman que los oyentes almacenan información tanto para el reconocimiento de palabras como para el del hablante. Según esta teoría, las instancias particulares de los sonidos del habla se almacenan en la memoria de un oyente. En el proceso de percepción del habla, las instancias recordadas de, por ejemplo, una sílaba almacenada en la memoria del oyente se comparan con el estímulo entrante para que el estímulo pueda categorizarse. Del mismo modo, al reconocer a un hablante, se activan todos los rastros de memoria de los enunciados producidos por ese hablante y se determina la identidad del hablante. Apoyando esta teoría hay varios experimentos reportados por Johnson [13]que sugieren que nuestra identificación de la señal es más precisa cuando estamos familiarizados con el hablante o cuando tenemos una representación visual del género del hablante. Cuando el hablante es impredecible o el sexo se identifica erróneamente, la tasa de error en la identificación de palabras es mucho mayor.

Los modelos ejemplares tienen que enfrentar varias objeciones, dos de las cuales son (1) capacidad de memoria insuficiente para almacenar cada enunciado jamás escuchado y, con respecto a la capacidad de producir lo que se escuchó, (2) si también se almacenan o computan los propios gestos articulatorios del hablante al producir enunciados que sonarían como los recuerdos auditivos. [13] [49]

Hitos acústicos y características distintivas

Kenneth N. Stevens propuso hitos acústicos y características distintivas como una relación entre características fonológicas y propiedades auditivas. Según este punto de vista, los oyentes están inspeccionando la señal entrante en busca de los denominados puntos de referencia acústicos, que son eventos particulares en el espectro que llevan información sobre los gestos que los produjeron. Dado que estos gestos están limitados por las capacidades de los articuladores humanos y los oyentes son sensibles a sus correlatos auditivos, la falta de invariancia simplemente no existe en este modelo. Las propiedades acústicas de los hitos constituyen la base para establecer los rasgos distintivos. Los paquetes de ellos especifican de forma única segmentos fonéticos (fonemas, sílabas, palabras). [50]

En este modelo, se cree que la señal acústica entrante se procesa primero para determinar los denominados puntos de referencia que son eventos espectrales especiales en la señal; por ejemplo, las vocales están típicamente marcadas por una frecuencia más alta del primer formante, las consonantes se pueden especificar como discontinuidades en la señal y tienen amplitudes más bajas en las regiones bajas y medias del espectro. Estas características acústicas son el resultado de la articulación. De hecho, los movimientos articulatorios secundarios se pueden utilizar cuando se necesita mejorar los puntos de referencia debido a condiciones externas como el ruido. Stevens afirma que la coarticulación solo causa una variación limitada y, además, sistemática y, por lo tanto, predecible en la señal que el oyente es capaz de manejar. Dentro de este modelo, por lo tanto, lo que se llamala falta de invariancia simplemente se afirma que no existe.

Los puntos de referencia se analizan para determinar ciertos eventos articulatorios (gestos) que están conectados con ellos. En la siguiente etapa, las señales acústicas se extraen de la señal en las proximidades de los puntos de referencia mediante la medición mental de ciertos parámetros como las frecuencias de los picos espectrales, las amplitudes en la región de baja frecuencia o la sincronización.

La siguiente etapa de procesamiento comprende la consolidación de señales acústicas y la derivación de características distintivas. Estas son categorías binarias relacionadas con la articulación (por ejemplo, [+/- alto], [+/- atrás], [+/- labios redondos] para vocales; [+/- sonora], [+/- lateral] o [ +/- nasal] para consonantes.

Los conjuntos de estas características identifican de forma única los segmentos del habla (fonemas, sílabas, palabras). Estos segmentos son parte del léxico almacenado en la memoria del oyente. Sus unidades se activan en el proceso de acceso léxico y se mapean en la señal original para averiguar si coinciden. Si no es así, se realiza otro intento con un patrón candidato diferente. De esta manera iterativa, los oyentes reconstruyen los eventos articulatorios que eran necesarios para producir la señal del habla percibida. Por tanto, esto puede describirse como análisis por síntesis.

Por tanto, esta teoría postula que el objeto distal de la percepción del habla son los gestos articulatorios que subyacen al habla. Los oyentes dan sentido a la señal del habla al referirse a ellos. El modelo pertenece a los denominados análisis por síntesis.

Modelo lógico difuso

La teoría lógica difusa de la percepción del habla desarrollada por Dominic Massaro [51] propone que las personas recuerden los sonidos del habla de forma probabilística o graduada. Sugiere que la gente recuerda descripciones de las unidades perceptivas del lenguaje, llamadas prototipos. Dentro de cada prototipo se pueden combinar varias características. Sin embargo, las funciones no son solo binarias (verdaderas o falsas), hay una difusavalor correspondiente a la probabilidad de que un sonido pertenezca a una categoría de habla particular. Por lo tanto, cuando percibimos una señal de voz, nuestra decisión sobre lo que realmente escuchamos se basa en la bondad relativa de la correspondencia entre la información del estímulo y los valores de prototipos particulares. La decisión final se basa en múltiples características o fuentes de información, incluso información visual (esto explica el efecto McGurk ). [49] Se han utilizado modelos informáticos de la teoría lógica difusa para demostrar que las predicciones de la teoría sobre cómo se categorizan los sonidos del habla corresponden al comportamiento de los oyentes humanos. [52]

Hipótesis del modo de habla

La hipótesis del modo del habla es la idea de que la percepción del habla requiere el uso de un procesamiento mental especializado. [53] [54] La hipótesis del modo de habla es una rama de la teoría de la modularidad de Fodor (ver modularidad de la mente ). Utiliza un mecanismo de procesamiento vertical donde los estímulos limitados son procesados ​​por áreas específicas del cerebro que son estímulos específicos. [54]

Dos versiones de la hipótesis del modo de voz: [53]

  • Versión débil: escuchar el habla implica un conocimiento previo del lenguaje.
  • Versión fuerte: escuchar el habla involucra mecanismos de habla especializados para percibir el habla.

Tres paradigmas experimentales importantes han evolucionado en la búsqueda para encontrar evidencia de la hipótesis del modo de habla. Estos son la escucha dicótica , la percepción categórica y la percepción dúplex . [53] A través de la investigación en estas categorías, se ha encontrado que puede no haber un modo de habla específico, sino uno para códigos auditivos que requieren un procesamiento auditivo complicado. También parece que la modularidad se aprende en los sistemas perceptivos. [53] A pesar de esto, la evidencia y la contra-evidencia de la hipótesis del modo de habla aún no está clara y necesita más investigación.

Teoría realista directa

La teoría realista directa de la percepción del habla (principalmente asociada con Carol Fowler ) es parte de la teoría más general del realismo directo , que postula que la percepción nos permite tener una conciencia directa del mundo porque implica la recuperación directa de la fuente distal de la evento que se percibe. Para la percepción del habla, la teoría afirma que los objetos de percepción son movimientos reales del tracto vocal, o gestos, y no fonemas abstractos o (como en la teoría motora) eventos que anteceden causalmente a estos movimientos, es decir, gestos intencionados. Los oyentes perciben los gestos no por medio de un decodificador especializado (como en la Teoría del Motor) sino porque la información en la señal acústica especifica los gestos que la forman.[55] Al afirmar que los gestos articulatorios reales que producen diferentes sonidos del habla son en sí mismos las unidades de percepción del habla, la teoría pasa por alto el problema de la falta de invariancia .

Ver también

  • Relacionado con el caso de estudio de Genie (niño salvaje)
  • Procesamiento neurocomputacional del habla
  • Integración multisensorial
  • Origen del habla
  • Patología del habla y Lenguaje
  • Teoría motora de la percepción del habla

Referencias

  1. ↑ a b c d Nygaard, LC, Pisoni, DB (1995). "Percepción del habla: nuevas direcciones en la investigación y la teoría". En JL Miller; PD Eimas (eds.). Manual de percepción y cognición: habla, lenguaje y comunicación . San Diego: Prensa académica.CS1 maint: varios nombres: lista de autores ( enlace )
  2. ^ Klatt, DH (1976). "Usos lingüísticos de la duración segmentaria en inglés: evidencia acústica y perceptual". Revista de la Sociedad Americana de Acústica . 59 (5): 1208–1221. Código bibliográfico : 1976ASAJ ... 59.1208K . doi : 10.1121 / 1.380986 . PMID 956516 . 
  3. ^ Halle, M., Mohanan, KP (1985). "Fonología segmentaria del inglés moderno". Investigación lingüística . 16 (1): 57-116.CS1 maint: varios nombres: lista de autores ( enlace )
  4. ^ Liberman, AM (1957). "Algunos resultados de la investigación sobre la percepción del habla" (PDF) . Revista de la Sociedad Americana de Acústica . 29 (1): 117-123. Código Bibliográfico : 1957ASAJ ... 29..117L . doi : 10.1121 / 1.1908635 . hdl : 11858 / 00-001M-0000-002C-5789-A . Consultado el 17 de mayo de 2007 .
  5. ↑ a b Fowler, CA (1995). "La producción del habla". En JL Miller; PD Eimas (eds.). Manual de percepción y cognición: habla, lenguaje y comunicación . San Diego: Prensa académica.
  6. ^ Hillenbrand, JM, Clark, MJ, Nearey, TM (2001). "Efectos del entorno de consonantes en patrones de formantes de vocales" . Revista de la Sociedad Americana de Acústica . 109 (2): 748–763. Código bibliográfico : 2001ASAJ..109..748H . doi : 10.1121 / 1.1337959 . PMID 11248979 . S2CID 10751216 .  CS1 maint: varios nombres: lista de autores ( enlace )
  7. ^ Lisker, L., Abramson, AS (1967). "Algunos efectos del contexto en el tiempo de inicio de la voz en plosives en inglés" (PDF) . Lenguaje y habla . 10 (1): 1–28. doi : 10.1177 / 002383096701000101 . PMID 6044530 . S2CID 34616732 . Consultado el 17 de mayo de 2007 .   CS1 maint: varios nombres: lista de autores ( enlace )
  8. ↑ a b Hillenbrand, J., Getty, LA, Clark, MJ, Wheeler, K. (1995). "Características acústicas de las vocales del inglés americano" . Revista de la Sociedad Americana de Acústica . 97 (5 Pt 1): 3099–3111. Código bibliográfico : 1995ASAJ ... 97.3099H . doi : 10.1121 / 1.411872 . PMID 7759650 . S2CID 10104073 .  CS1 maint: varios nombres: lista de autores ( enlace )
  9. ^ Houston, Derek M .; Juscyk, Peter W. (octubre de 2000). "El papel de la información específica del hablante en la segmentación de palabras de los bebés" (PDF) . Revista de psicología experimental: percepción y rendimiento humanos . 26 (5): 1570-1582. doi : 10.1037 / 0096-1523.26.5.1570 . PMID 11039485 . Archivado desde el original (PDF) el 30 de abril de 2014 . Consultado el 1 de marzo de 2012 .  
  10. ^ Heno, Jennifer; Drager, Katie (2010). "Peluches y percepción del habla". Lingüística . 48 (4): 865–892. doi : 10.1515 / LING.2010.027 . S2CID 143639653 . 
  11. ^ a b Syrdal, AK ; Gopal, HS (1986). "Un modelo perceptual de reconocimiento de vocales basado en la representación auditiva de las vocales del inglés americano". Revista de la Sociedad Americana de Acústica . 79 (4): 1086-1100. Código bibliográfico : 1986ASAJ ... 79.1086S . doi : 10.1121 / 1.393381 . PMID 3700864 . 
  12. ^ Extraño, W. (1999). "Percepción de vocales: constancia dinámica". En JM Pickett (ed.). La acústica de la comunicación del habla: fundamentos, teoría de la percepción del habla y tecnología . Needham Heights (MA): Allyn y Bacon.
  13. ↑ a b c Johnson, K. (2005). "Normalización del hablante en la percepción del habla" (PDF) . En Pisoni, DB; Remez, R. (eds.). El manual de percepción del habla . Oxford: Blackwell Publishers . Consultado el 17 de mayo de 2007 .
  14. ^ Trubetzkoy, Nikolay S. (1969). Principios de fonología . Berkeley y Los Ángeles: University of California Press. ISBN 978-0-520-01535-7.
  15. ^ Iverson, P., Kuhl, PK (1995). "Mapeo del efecto de imán perceptual para el habla utilizando la teoría de detección de señales y escalado multidimensional". Revista de la Sociedad Americana de Acústica . 97 (1): 553–562. Código bibliográfico : 1995ASAJ ... 97..553I . doi : 10.1121 / 1.412280 . PMID 7860832 . CS1 maint: varios nombres: lista de autores ( enlace )
  16. ↑ a b Lisker, L., Abramson, AS (1970). "La dimensión sonora: algunos experimentos en fonética comparada" (PDF) . Proc. VI Congreso Internacional de Ciencias Fonéticas . Praga: Academia. págs. 563–567 . Consultado el 17 de mayo de 2007 . CS1 maint: varios nombres: lista de autores ( enlace )
  17. ^ Warren, RM (1970). "Restauración de los sonidos del habla que faltan". Ciencia . 167 (3917): 392–393. Código Bibliográfico : 1970Sci ... 167..392W . doi : 10.1126 / science.167.3917.392 . PMID 5409744 . S2CID 30356740 .  
  18. ^ Garnes, S., Bond, ZS (1976). "La relación entre información acústica y expectativa semántica". Phonologica 1976 . Innsbruck. págs. 285-293.CS1 maint: varios nombres: lista de autores ( enlace )
  19. ^ Jongman A, Wang Y, Kim BH (diciembre de 2003). "Contribuciones de la información semántica y facial a la percepción de fricativas no sensibles" (PDF) . J. Speech Lang. Escuchar. Res . 46 (6): 1367–77. doi : 10.1044 / 1092-4388 (2003/106) . hdl : 1808/13411 . PMID 14700361 . Archivado desde el original (PDF) el 14 de junio de 2013 . Consultado el 14 de septiembre de 2017 .  
  20. ↑ a b Cervantes Constantino, F; Simon, JZ (2018). "La restauración y la eficiencia del procesamiento neuronal del habla continua son promovidas por conocimientos previos" . Fronteras en neurociencia de sistemas . 12 (56): 56. doi : 10.3389 / fnsys.2018.00056 . PMC 6220042 . PMID 30429778 .  
  21. ^ Poeppel, David; Monahan, Philip J. (2008). "Percepción del habla: fundamentos cognitivos e implementación cortical" . Direcciones actuales en ciencia psicológica . 17 (2): 80–85. doi : 10.1111 / j.1467-8721.2008.00553.x . ISSN 0963-7214 . S2CID 18628411 .  
  22. ^ Hickok G, Poeppel D (mayo de 2007). "La organización cortical del procesamiento del habla". Nat. Rev. Neurosci . 8 (5): 393–402. doi : 10.1038 / nrn2113 . PMID 17431404 . S2CID 6199399 .  
  23. ^ a b Hessler, Dorte; Jonkers, Bastiaanse (diciembre de 2010). "La influencia de las dimensiones fonéticas en la percepción afásica del habla" . Lingüística clínica y fonética . 12. 24 (12): 980–996. doi : 10.3109 / 02699206.2010.507297 . PMID 20887215 . S2CID 26478503 .  
  24. ^ "Definición de AGNOSIA" . www.merriam-webster.com . Consultado el 15 de diciembre de 2017 .
  25. ^ Howard, Harry (2017). "Bienvenidos a Cerebro y Lenguaje" . Bienvenido a Brain and Language .
  26. ^ Lambert, J. (1999). "Agnosia auditiva con relativa moderación de la percepción del habla". Neurocase . 5 (5): 71–82. doi : 10.1093 / neucas / 5.5.394 . PMID 2707006 . 
  27. ^ a b Rocha, Sofía; Amorim, José Manuel; Machado, Álvaro Alexandre; Ferreira, Carla Maria (1 de abril de 2015). "Fonagnosia e incapacidad para percibir el paso del tiempo en la epilepsia del lóbulo parietal derecho". La Revista de Neuropsiquiatría y Neurociencias Clínicas . 27 (2): e154 – e155. doi : 10.1176 / appi.neuropsych.14040073 . ISSN 0895-0172 . PMID 25923865 .  
  28. ↑ a b c Minagawa-Kawai, Y., Mori, K., Naoi, N., Kojima, S. (2006). "Procesos de sintonización neuronal en bebés durante la adquisición de un contraste fonémico específico del lenguaje" . La Revista de Neurociencia . 27 (2): 315–321. doi : 10.1523 / JNEUROSCI.1984-06.2007 . PMC 6672067 . PMID 17215392 .  CS1 maint: varios nombres: lista de autores ( enlace )
  29. ↑ a b Crystal, David (2005). La Enciclopedia del Lenguaje de Cambridge . Cambridge: CUP. ISBN 978-0-521-55967-6.
  30. ^ Kuhl, Patricia K .; Feng-Ming Tsao; Huei-Mei Liu (julio de 2003). "Experiencia de lengua extranjera en la infancia: efectos de la exposición a corto plazo y la interacción social en el aprendizaje fonético" . Actas de la Academia Nacional de Ciencias . 100 (15): 9096–9101. Código Bibliográfico : 2003PNAS..100.9096K . doi : 10.1073 / pnas.1532872100 . PMC 166444 . PMID 12861072 .  
  31. ^ Iverson, P., Kuhl, PK, Akahane-Yamada, R., Diesh, E., Thokura, Y., Kettermann, A., Siebert, C. (2003). "Una cuenta de interferencia perceptiva de las dificultades de adquisición de fonemas no nativos". Cognición . 89 (1): B47 – B57. doi : 10.1016 / S0010-0277 (02) 00198-1 . PMID 12499111 . S2CID 463529 .  CS1 maint: varios nombres: lista de autores ( enlace )
  32. ^ Mejor, CT (1995). "Una visión realista directa de la percepción del habla en varios idiomas: nuevas direcciones en la investigación y la teoría". En Winifred Strange (ed.). Percepción del habla y experiencia lingüística: aspectos teóricos y metodológicos . Baltimore: Prensa de York. págs. 171–204.
  33. ^ Flege, J. (1995). "Aprendizaje del habla en una segunda lengua: teoría, hallazgos y problemas". En Winifred Strange (ed.). Percepción del habla y experiencia lingüística: aspectos teóricos y metodológicos . Baltimore: Prensa de York. págs. 233-277.
  34. ^ Uhler; Yoshinaga-Itano; Gabbard; Rothpletz; Jenkins (marzo de 2011). "Percepción del habla infantil en usuarios jóvenes de implantes cocleares". Revista de la Academia Estadounidense de Audiología . 22 (3): 129-142. doi : 10.3766 / jaaa.22.3.2 . PMID 21545766 . 
  35. ↑ a b Csépe, V .; Osman-Sagi, J .; Molnar, M .; Gosy, M. (2001). "Deterioro de la percepción del habla en pacientes afásicos: potencial relacionado con eventos y evaluación neuropsicológica". Neuropsicología . 39 (11): 1194–1208. doi : 10.1016 / S0028-3932 (01) 00052-5 . PMID 11527557 . S2CID 17307242 .  
  36. ↑ a b Loizou, P. (1998). "Introducción a los implantes cocleares". Revista de procesamiento de señales IEEE . 39 (11): 101–130. doi : 10.1109 / 79.708543 .
  37. ↑ a b c d Deutsch, Diana; Henthorn, Trevor; Dolson, Mark (primavera de 2004). "Los patrones de habla que se escuchan temprano en la vida influyen en la percepción posterior de la paradoja del tritono" (PDF) . Percepción musical . 21 (3): 357–72. doi : 10.1525 / mp.2004.21.3.357 . Consultado el 29 de abril de 2014 .
  38. ^ Marques, C y col. (2007). Los músicos detectan la violación del tono en un idioma extranjero mejor que los no músicos: evidencia conductual y electrofisiológica. "Revista de neurociencia cognitiva, 19", 1453-1463.
  39. ↑ a b c O'Callaghan, Casey (2010). "Experimentar el habla" . Problemas filosóficos . 20 : 305–327. doi : 10.1111 / j.1533-6077.2010.00186.x .
  40. ^ McClelland, JL y Elman, JL (1986). "El modelo TRACE de percepción del habla" (PDF) . Psicología cognitiva . 18 (1): 1–86. doi : 10.1016 / 0010-0285 (86) 90015-0 . PMID 3753912 . S2CID 7428866 . Archivado desde el original (PDF) el 21 de abril de 2007 . Consultado el 19 de mayo de 2007 .   
  41. ^ Kazanina, N., Phillips, C., Idsardi, W. (2006). "La influencia del significado en la percepción de los sonidos del habla" (PDF) . PNAS . 30 . págs. 11381-11386 . Consultado el 19 de mayo de 2007 . CS1 maint: varios nombres: lista de autores ( enlace ) [ enlace muerto permanente ]
  42. ^ Gocken, JM y Fox RA (2001). "Evidencia neurológica en apoyo de un módulo de procesamiento fonético especializado" . Cerebro y lenguaje . 78 (2): 241-253. doi : 10.1006 / brln.2001.2467 . PMID 11500073 . S2CID 28469116 .  
  43. ^ Dehaene-Lambertz, G., Pallier, C., Serniclaes, W., Sprenger-Charolles, L., Jobert, A. y Dehaene, S. (2005). "Correlaciones neuronales del cambio de la percepción auditiva a la del habla" (PDF) . NeuroImage . 24 (1): 21–33. doi : 10.1016 / j.neuroimage.2004.09.039 . PMID 15588593 . S2CID 11899232 . Consultado el 4 de julio de 2007 .   CS1 maint: varios nombres: lista de autores ( enlace )
  44. Näätänen, R. (2001). "La percepción de los sonidos del habla por parte del cerebro humano reflejada por la negatividad de desajuste (MMN) y su equivalente magnético (MMNm)" . Psicofisiología . 38 (1): 1–21. doi : 10.1111 / 1469-8986.3810001 . PMID 11321610 . 
  45. ^ Liberman, AM, Harris, KS, Hoffman, HS, Griffith, BC (1957). "La discriminación de los sonidos del habla dentro y fuera de los límites de los fonemas" (PDF) . Revista de Psicología Experimental . 54 (5): 358–368. doi : 10.1037 / h0044417 . PMID 13481283 . Consultado el 18 de mayo de 2007 .  CS1 maint: varios nombres: lista de autores ( enlace )
  46. ^ Liberman, AM, Cooper, FS, Shankweiler, DP y Studdert-Kennedy, M. (1967). "Percepción del código de voz" (PDF) . Revisión psicológica . 74 (6): 431–461. doi : 10.1037 / h0020279 . PMID 4170865 . Consultado el 19 de mayo de 2007 .  CS1 maint: varios nombres: lista de autores ( enlace )
  47. ^ Liberman, AM (1970). "Las gramáticas del habla y el lenguaje" (PDF) . Psicología cognitiva . 1 (4): 301–323. doi : 10.1016 / 0010-0285 (70) 90018-6 . Consultado el 19 de julio de 2007 .
  48. ↑ a b Liberman, AM y Mattingly, IG (1985). "La teoría motora de la percepción del habla revisada" (PDF) . Cognición . 21 (1): 1–36. CiteSeerX 10.1.1.330.220 . doi : 10.1016 / 0010-0277 (85) 90021-6 . PMID 4075760 . S2CID 112932 . Consultado el 19 de julio de 2007 .    
  49. ↑ a b c Hayward, Katrina (2000). Fonética experimental: una introducción . Harlow: Longman.
  50. ^ Stevens, KN ​​(2002). "Hacia un modelo de acceso léxico basado en hitos acústicos y rasgos distintivos" (PDF) . Revista de la Sociedad Americana de Acústica . 111 (4): 1872–1891. Código bibliográfico : 2002ASAJ..111.1872S . doi : 10.1121 / 1.1458026 . PMID 12002871 . Archivado desde el original (PDF) el 2007-06-09 . Consultado el 17 de mayo de 2007 .  
  51. ^ Massaro, DW (1989). "Prueba entre el modelo TRACE y el modelo lógico difuso de percepción del habla". Psicología cognitiva . 21 (3): 398–421. doi : 10.1016 / 0010-0285 (89) 90014-5 . PMID 2758786 . S2CID 7629786 .  
  52. ^ Oden, GC, Massaro, DW (1978). "Integración de información característica en la percepción del habla". Revisión psicológica . 85 (3): 172-191. doi : 10.1037 / 0033-295X.85.3.172 . PMID 663005 . CS1 maint: varios nombres: lista de autores ( enlace )
  53. ^ a b c d Ingram, John. CL (2007). Neurolingüística: una introducción al procesamiento del lenguaje hablado y sus trastornos . Cambridge: Cambridge University Press. pp.  113 -127.
  54. ^ a b Parker, Ellen M .; RL Diehl; KR Kluender (1986). "Relaciones comerciales en discurso y no discurso" . Atención, Percepción y Psicofísica . 39 (2): 129-142. doi : 10.3758 / bf03211495 . PMID 3725537 . 
  55. ^ Randy L. Diehl; Andrew J. Lotto; Lori L. Holt (2004). "Percepción del habla" . Revisión anual de psicología . 55 (1): 149-179. doi : 10.1146 / annurev.psych.55.090902.142028 . PMID 14744213 . S2CID 937985 .  

enlaces externos

  • Número dedicado de Philosophical Transactions B sobre la percepción del habla. Algunos artículos están disponibles gratuitamente.
Obtenido de " https://en.wikipedia.org/w/index.php?title=Speech_perception&oldid=1022385845 "