Lectura de labios


De Wikipedia, la enciclopedia libre
  (Redirigido desde la lectura de labios )
Saltar a navegación Saltar a búsqueda

La lectura de labios , también conocida como lectura del habla , es una técnica de comprensión del habla mediante la interpretación visual de los movimientos de los labios, la cara y la lengua cuando no se dispone de un sonido normal. También se basa en la información proporcionada por el contexto, el conocimiento del idioma y cualquier audición residual. Aunque la lectura de labios es utilizada más ampliamente por personas sordas y con problemas de audición, la mayoría de las personas con audición normal procesan parte de la información del habla al ver la boca en movimiento. [1]

Proceso

Aunque la percepción del habla se considera una habilidad auditiva, es intrínsecamente multimodal, ya que la producción del habla requiere que el hablante realice movimientos de labios, dientes y lengua que a menudo son visibles en la comunicación cara a cara. La información de los labios y la cara apoya la comprensión auditiva [2] y la mayoría de los oyentes fluidos de un idioma son sensibles a las acciones del habla que se ven (ver efecto McGurk ). La medida en que las personas hacen uso de las acciones del habla vista varía con la visibilidad de la acción del habla y el conocimiento y la habilidad del perceptor.

Fonemas y visemas

El fonema es la unidad de sonido más pequeña detectable en un idioma que sirve para distinguir palabras entre sí. / pit / y / pik / difieren en un fonema y se refieren a conceptos diferentes. El inglés hablado tiene alrededor de 44 fonemas. Para la lectura de labios, el número de unidades visualmente distintivas ( visemas ) es mucho menor, por lo que varios fonemas se asignan a unos pocos visemas. Esto se debe a que muchos fonemas se producen dentro de la boca y la garganta y no se pueden ver. Estos incluyen consonantes glotales y la mayoría de los gestos de la lengua. Los pares sonoros y sordos parecen idénticos, como [p] y [b], [k] y [g], [t] y [d], [f] y [v], y [s] y [z]; lo mismo ocurre con la nasalización (por ejemplo, [m] frente a [b]).Los homofenos son palabras que se ven similares cuando se leen los labios, pero que contienen diferentes fonemas. Debido a que hay aproximadamente tres veces más fonemas que visemas en inglés, a menudo se afirma que solo el 30% del habla se puede leer en los labios. Los homofenos son una fuente crucial de errores en la lectura de los labios.

La leyenda de este rompecabezas dice: "Aquí hay una clase de una docena de niños, quienes, al ser llamados a filas para dar sus nombres, fueron fotografiados por el proceso instantáneo justo cuando cada uno comenzaba a pronunciar su propio nombre. Los doce nombres eran Oom, Alden , Eastman, Alfred, Arthur, Luke, Fletcher, Matthew, Theodore, Richard, Shirmer y Hisswald. Ahora no parece posible dar el nombre correcto a cada uno de los doce niños, pero si practicas la lista a cada uno, no le resultará difícil encontrar el nombre propio de cada uno de los chicos ". [3]

Coarticulación

Los visemas se pueden capturar como imágenes fijas, pero el habla se desarrolla en el tiempo. La articulación suave de los sonidos del habla en secuencia puede significar que los patrones de la boca pueden ser "moldeados" por un fonema adyacente: el sonido "th" en "diente" y en "dientes" parece muy diferente debido al contexto vocálico . Esta característica de la lectura dinámica del habla afecta a la lectura de labios "más allá del visema". [4]

¿Cómo puede "funcionar" con tan pocos visemas?

La distribución estadística de los fonemas dentro del léxico de una lengua es desigual. Si bien hay grupos de palabras que son fonémicamente similares entre sí ('vecinos léxicos', como escupir / sorber / sentarse / pegar ... etc.), Otras son diferentes a todas las demás palabras: son 'únicas' en términos de la distribución de sus fonemas ("paraguas" puede ser un ejemplo). Los usuarios expertos del idioma aportan este conocimiento al interpretar el habla, por lo que generalmente es más difícil identificar una palabra escuchada con muchos vecinos léxicos que una con pocos vecinos. Aplicando esta percepción al habla vista, algunas palabras en el idioma pueden leerse los labios sin ambigüedades incluso cuando contienen pocos visemas, simplemente porque ninguna otra palabra podría "encajar". [5]

Variación en legibilidad y habilidad

Muchos factores afectan la visibilidad de una cara que habla, incluida la iluminación, el movimiento de la cabeza / cámara, la velocidad de fotogramas de la imagen en movimiento y la distancia del espectador (ver, por ejemplo, [6] ). El movimiento de la cabeza que acompaña al habla normal también puede mejorar la lectura de los labios, independientemente de las acciones orales. [7] Sin embargo, cuando la lectura de labios conecta el habla , el conocimiento del lenguaje hablado por parte del espectador, la familiaridad con el hablante y el estilo de habla, y el contexto del material de lectura de labios [8]son tan importantes como la visibilidad del hablante. Si bien la mayoría de las personas oyentes son sensibles al habla vista, existe una gran variabilidad en la habilidad individual de lectura del habla. Los buenos lectores de labios suelen ser más precisos que los malos lectores de labios a la hora de identificar fonemas a partir del habla visual.

Algunos investigadores han cuestionado una simple medida visémica de la "legibilidad de los labios". La medida de la «clase de equivalencia de fonemas» tiene en cuenta la estructura estadística del léxico [9] y también puede adaptarse a las diferencias individuales en la capacidad de leer los labios. [10] [11] De acuerdo con esto, la excelente lectura de labios a menudo se asocia con habilidades cognitivas de base más amplia, incluida la competencia general del lenguaje, la función ejecutiva y la memoria de trabajo . [12] [13]

Lectura de labios y aprendizaje de idiomas en bebés y niños con audición

Los primeros meses

Ver la boca juega un papel en la sensibilidad temprana al habla de los bebés muy pequeños y los prepara para convertirse en hablantes entre 1 y 2 años. Para imitar, un bebé debe aprender a moldear sus labios de acuerdo con los sonidos que escucha; ver al hablante puede ayudarles a hacer esto. [14] Los recién nacidos imitan los movimientos de la boca de los adultos, como sacar la lengua o abrir la boca, lo que podría ser un precursor de una mayor imitación y posterior aprendizaje del idioma. [15] Los bebés se molestan cuando el habla audiovisual de un hablante conocido se desincroniza [16] y tienden a mostrar patrones de apariencia diferentes para rostros familiares que para rostros desconocidos cuando se combinan con voces (grabadas). [17] Los bebés son sensibles a las ilusiones de McGurk.meses antes de que hayan aprendido a hablar. [18] [19] Estos estudios y muchos más apuntan a un papel de la visión en el desarrollo de la sensibilidad al habla (auditiva) en el primer semestre de vida.

Los próximos seis meses; un papel en el aprendizaje de un idioma nativo

Hasta alrededor de los seis meses de edad, la mayoría de los bebés que oyen son sensibles a una amplia gama de gestos del habla, incluidos los que se pueden ver en la boca, que pueden o no ser parte de la fonología de su lengua materna. Pero en los segundos seis meses de vida, el bebé que oye muestra un estrechamiento perceptivo de la estructura fonética de su propio idioma y puede perder la sensibilidad inicial a los patrones de la boca que no son útiles. Los sonidos del habla / v / y / b / que son visémicamente distintivos en inglés pero no en castellano se distinguen con precisión en bebés expuestos al español y expuestos al inglés hasta la edad de alrededor de 6 meses. Sin embargo, los bebés mayores expuestos al español pierden la capacidad de "ver" esta distinción, mientras que se retiene para los bebés expuestos al inglés.[20] Dichos estudios sugieren que, en lugar de desarrollarse la audición y la visión de manera independiente en la infancia, el procesamiento multimodal es la regla, no la excepción, en el desarrollo (del lenguaje) del cerebro infantil. [21]

Producción lingüística temprana: uno a dos años

Dados los numerosos estudios que indican un papel de la visión en el desarrollo del lenguaje en el bebé prelingual, los efectos de la ceguera congénita en el desarrollo del lenguaje son sorprendentemente pequeños. Los niños de 18 meses aprenden palabras nuevas más fácilmente cuando las escuchan y no las aprenden cuando se les muestran los movimientos del habla sin escuchar. [22] Sin embargo, los niños ciegos de nacimiento pueden confundir / m / y / n / en su propia producción temprana de palabras en inglés, una confusión que rara vez se ve en niños oyentes videntes, ya que / m / y / n / son visiblemente distintivos, pero auditorialmente confusible. [23]El papel de la visión en los niños de 1 a 2 años puede ser menos crítico para la producción de su lengua materna, ya que, a esa edad, han alcanzado las habilidades que necesitan para identificar e imitar los sonidos del habla. Sin embargo, escuchar un idioma no nativo puede desviar la atención del niño hacia la participación visual y auditiva mediante la lectura y la escucha de los labios para procesar, comprender y producir el habla. [24]

En la niñez

Los estudios con bebés y niños prelingüísticos utilizan medidas indirectas no verbales para indicar la sensibilidad al habla vista. La lectura de labios explícita se puede probar de manera confiable al escuchar a los niños en edad preescolar pidiéndoles que "digan en voz alta lo que digo en silencio". [25] En los niños en edad escolar, la lectura de labios de palabras conocidas de un conjunto cerrado, como las palabras numéricas, se puede obtener fácilmente. [26] Las diferencias individuales en la habilidad de leer los labios, comprobadas al pedirle al niño que "diga la palabra que usted lee los labios", o al hacer coincidir una expresión de lectura de labios con una imagen, [27] muestran una relación entre los labios y los labios. habilidad de lectura y edad. [28] [29]

En adultos que oyen: consideraciones sobre la vida útil

Si bien la lectura de labios en voz baja representa un desafío para la mayoría de las personas oyentes, agregar la vista del hablante al discurso escuchado mejora el procesamiento del habla en muchas condiciones. Los mecanismos para esto, y las formas precisas en las que la lectura de labios ayuda, son temas de investigación actual. [30] Ver al hablante ayuda en todos los niveles del procesamiento del habla, desde la discriminación de características fonéticas hasta la interpretación de enunciados pragmáticos . [31] Los efectos positivos de agregar visión al habla son mayores en ambientes ruidosos que silenciosos, [32] donde al facilitar la percepción del habla, ver al hablante puede liberar recursos cognitivos, permitiendo un procesamiento más profundo del contenido del habla.

A medida que la audición se vuelve menos confiable en la vejez, las personas tienden a depender más de la lectura de labios, y se les anima a hacerlo. Sin embargo, es posible que una mayor dependencia de la lectura de labios no siempre mejore los efectos de la pérdida auditiva relacionada con la edad. El deterioro cognitivo en el envejecimiento puede estar precedido o asociado con una pérdida auditiva medible. [33] [34] Por lo tanto, es posible que la lectura de labios no siempre pueda compensar por completo la disminución combinada de la audición y la cognición relacionada con la edad.

En poblaciones específicas (auditivas)

Varios estudios informan anomalías en la lectura de labios en poblaciones con trastornos distintivos del desarrollo. Autismo : las personas con autismo pueden mostrar una capacidad reducida para leer los labios y una dependencia reducida de la visión en la percepción del habla audiovisual. [35] [36] Esto puede estar asociado con anomalías de la mirada a la cara en estas personas. [37] Síndrome de Williams : las personas con síndrome de Williams muestran algunos déficits en la lectura del habla que pueden ser independientes de sus dificultades visuoespaciales. [38] Deterioro específico del lenguaje : También se informa que los niños con SLI muestran una sensibilidad reducida a la lectura de labios, [39] al igual que las personas con dislexia . [40]

Sordera

Se ha debatido durante cientos de años sobre el papel de la lectura de labios (' oralismo ') en comparación con otros métodos de comunicación (más recientemente, la comunicación total ) en la educación de las personas sordas. La medida en que uno u otro enfoque sea beneficioso depende de una variedad de factores, incluido el nivel de pérdida auditiva de la persona sorda, la edad de la pérdida auditiva, la participación de los padres y el idioma (s) de los padres. Luego hay una pregunta sobre los objetivos de la persona sorda y su comunidad y cuidadores. Es el objetivo de la educación mejorar la comunicación en general, desarrollar el lenguaje de señas.como primer idioma, o para desarrollar habilidades en el idioma hablado de la comunidad auditiva? Los investigadores ahora se centran en qué aspectos del lenguaje y la comunicación pueden transmitirse mejor por qué medios y en qué contextos, dado el estado auditivo del niño y su familia, y sus planes educativos. [41] El bilingüismo bimodal (dominio tanto del habla como del lenguaje de señas) es un enfoque actual dominante en la educación del lenguaje para el niño sordo. [42]

Las personas sordas suelen leer mejor los labios que las personas con audición normal. [43] Algunas personas sordas practican como lectores de labios profesionales, por ejemplo en lectura de labios forense . En las personas sordas que tienen un implante coclear , la habilidad para leer los labios antes del implante puede predecir el procesamiento del habla posterior al implante (auditivo o audiovisual). [44] Para muchas personas sordas, el acceso a la comunicación hablada se puede ayudar cuando un mensaje hablado se transmite a través de un hablante de labios profesional capacitado . [45] [46]

En relación con la lectura de labios y el desarrollo de la lectoescritura, los niños que nacen sordos suelen mostrar un retraso en el desarrollo de las habilidades de lectoescritura [47], lo que puede reflejar dificultades para adquirir elementos del lenguaje hablado. [48] En particular, el mapeo confiable de fonemas-grafemas puede ser más difícil para los niños sordos, que necesitan ser hábiles lectores del habla para dominar este paso necesario en la adquisición de la alfabetización. La habilidad de leer los labios está asociada con las habilidades de alfabetización en adultos y niños sordos [49] [50] y el entrenamiento en la lectura de labios puede ayudar a desarrollar las habilidades de alfabetización. [51]

El habla con señales utiliza la lectura de labios acompañada de formas de manos que eliminan la ambigüedad de la forma de labios visémica (consonante). Se dice que el lenguaje con claves es más fácil de aprender para los padres oyentes que el lenguaje de señas, y los estudios, principalmente de Bélgica, muestran que un niño sordo expuesto al habla con claves en la infancia puede progresar de manera más eficiente en el aprendizaje de un idioma hablado que solo con la lectura de labios. [52] Es probable que el uso del habla con claves en la implantación coclear para la sordera sea positivo. [53] Un enfoque similar, que implica el uso de formas de mano que acompañan al habla vista, es Visual Fonética , que es utilizada por algunos educadores para apoyar el aprendizaje del lenguaje escrito y hablado.

Enseñanza y formación

El objetivo de la enseñanza y la formación en lectura de labios es desarrollar la conciencia de la naturaleza de la lectura de labios y practicar formas de mejorar la capacidad de percibir el habla "a simple vista". [54] Las clases de lectura de labios, a menudo llamadas clases de lectura de labios y manejo de la pérdida auditiva , están dirigidas principalmente a adultos con pérdida auditiva. La mayor proporción de adultos con pérdida auditiva tiene una pérdida relacionada con la edad o el ruido ; con estas dos formas de pérdida auditiva, los sonidos de alta frecuencia se pierden primero. Dado que muchas de las consonantes del habla son sonidos de alta frecuencia, el habla se distorsiona. Los audífonos ayudan, pero es posible que no curen esto. Se ha demostrado que las clases de lectura de labios son beneficiosas en estudios del Reino Unido encargados por Action on Hearing Losscaridad [55] (2012).

Los entrenadores reconocen que leer los labios es un arte inexacto. A los estudiantes se les enseña a observar los movimientos de los labios, la lengua y la mandíbula, a seguir el estrés y el ritmo del lenguaje, a usar su audición residual, con o sin audífonos, a observar la expresión y el lenguaje corporal, y a usar su capacidad para razonar y deducir. . Se les enseña el alfabeto de los lectores de labios , grupos de sonidos que se parecen en los labios (visemas) como p, b, m, o f, v. El objetivo es comprender lo esencial, para tener la confianza necesaria para participar en la conversación. y evitar el aislamiento social dañino que a menudo acompaña a la pérdida auditiva. Las clases de lectura de labios se recomiendan para cualquier persona que tenga dificultades para oír en ambientes ruidosos y le ayudarán a adaptarse a la pérdida auditiva. ATLA(Association for Teaching Lipreading to Adults) es la asociación profesional del Reino Unido para tutores calificados de lectura de labios.

Pruebas

La mayoría de las pruebas de lectura de labios se diseñaron para medir las diferencias individuales en la realización de tareas específicas de procesamiento del habla y para detectar cambios en el rendimiento después del entrenamiento. Las pruebas de lectura de labios se han utilizado con grupos relativamente pequeños en entornos experimentales o como indicadores clínicos con pacientes y clientes individuales. Es decir, las pruebas de lectura de labios hasta la fecha tienen una validez limitada como marcadores de la habilidad de lectura de labios en la población general.

Lectura de labios y habla de labios a máquina

La lectura de labios automatizada ha sido un tema de interés en la ingeniería computacional, así como en las películas de ciencia ficción . El ingeniero computacional Steve Omohundro , entre otros, fue pionero en su desarrollo. En la animación facial , el objetivo es generar acciones faciales realistas, especialmente movimientos de la boca, que simulen las acciones del habla humana. Los algoritmos informáticos para deformar o manipular imágenes de rostros pueden ser impulsados ​​por el lenguaje oral o escrito. Los sistemas pueden basarse en modelos detallados derivados de movimientos faciales ( captura de movimiento ); sobre el modelado anatómico de las acciones de la mandíbula, la boca y la lengua; o en el mapeo de propiedades conocidas de visemefonemas. [56] [57]La animación facial se ha utilizado en el entrenamiento de lectura del habla (demostrando cómo se ven los diferentes sonidos). [58] Estos sistemas son un subconjunto del modelado de síntesis de voz cuyo objetivo es ofrecer salidas fiables de "texto a (visto) voz". Un objetivo complementario —lo contrario de hacer que las caras se muevan en el habla— es desarrollar algoritmos informáticos que puedan ofrecer interpretaciones realistas del habla (es decir, una transcripción escrita o un registro de audio) a partir de datos de vídeo naturales de un rostro en acción: este es el reconocimiento facial del habla. Estos modelos también pueden obtenerse de una variedad de datos. [59] El reconocimiento de voz visual automático a partir de video ha tenido bastante éxito en la distinción de diferentes idiomas (de un corpus de datos del lenguaje hablado). [60]Los modelos de demostración, que utilizan algoritmos de aprendizaje automático, han tenido cierto éxito en la lectura de labios de elementos del habla, como palabras específicas, de vídeo [61] y en la identificación de fonemas difíciles de leer a partir de acciones de la boca visualmente similares. [62] La lectura de voz basada en máquinas está haciendo un uso exitoso de algoritmos basados ​​en redes neuronales que utilizan grandes bases de datos de hablantes y material de voz (siguiendo el modelo exitoso para el reconocimiento auditivo automático de voz ). [63]

Los usos de la lectura de labios por máquina podrían incluir la lectura de labios automatizada de registros de solo video, la lectura de labios automatizada de hablantes con tractos vocales dañados y el procesamiento del habla en video cara a cara (es decir, a partir de datos de videoteléfono). La lectura de labios automatizada puede ayudar a procesar el habla ruidosa o desconocida. [64] La lectura de labios automatizada puede contribuir a la identificación biométrica de personas, reemplazando la identificación basada en contraseña. [65] [66]

El cerebro

Tras el descubrimiento de que las regiones del cerebro auditivo , incluida la circunvolución de Heschl , se activaban con el habla vista, [67] se demostró que el circuito neural para la lectura del habla incluye regiones de procesamiento supramodales, especialmente el surco temporal superior (todas las partes) y el occipital posterior inferior. -regiones temporales que incluyen regiones especializadas para el procesamiento de rostros y movimiento biológico . [68] En algunos estudios, pero no en todos, se informa la activación del área de Broca para la lectura del habla, [69] [70] lo que sugiere que los mecanismos articulatorios pueden activarse en la lectura del habla. [71]Los estudios del curso temporal del procesamiento del habla audiovisual mostraron que la visión del habla puede preparar regiones de procesamiento auditivo antes de la señal acústica. [72] [73] Una mejor habilidad para leer los labios se asocia con una mayor activación en el surco temporal superior (izquierdo) y las regiones temporales inferiores adyacentes (visual) en las personas oyentes. [74] [75] En las personas sordas, el circuito dedicado a la lectura del habla parece ser muy similar al de las personas oyentes, con asociaciones similares de activación temporal superior (izquierda) y habilidad para leer los labios. [76]

Referencias

  1. ^ Woodhouse, L; Hickson, L; Dodd, B (2009). "Revisión de la percepción visual del habla por personas con discapacidad auditiva y auditiva: implicaciones clínicas". Revista Internacional de Trastornos del Lenguaje y la Comunicación . 44 (3): 253–70. doi : 10.1080 / 13682820802090281 . PMID  18821117 .
  2. ^ Erber, NP (1969). "Interacción de audición y visión en el reconocimiento de estímulos del habla oral". J Speech Hear Res . 12 (2): 423–5. doi : 10.1044 / jshr.1202.423 . PMID 5808871 . 
  3. Cyclopedia of Puzzles de Sam Loyd , 1914
  4. ^ Benguerel, AP; Pichora-Fuller, MK (1982). "Efectos de la coarticulación en la lectura de labios". J Speech Hear Res . 25 (4): 600–7. doi : 10.1044 / jshr.2504.600 . PMID 7162162 . 
  5. ^ Auer, ET (2010). "Investigando la lectura del habla y la sordera" . Revista de la Academia Estadounidense de Audiología . 21 (3): 163–8. doi : 10.3766 / jaaa.21.3.4 . PMC 3715375 . PMID 20211120 .  
  6. ^ Jordan, TR; Thomas, SM (2011). "Cuando la mitad de una cara es tan buena como un todo: efectos de una simple oclusión sustancial en la percepción visual y audiovisual del habla" . Atten Percept Psychophys . 73 (7): 2270–85. doi : 10.3758 / s13414-011-0152-4 . PMID 21842332 . 
  7. ^ Thomas, SM; Jordan, TR (2004). "Contribuciones del movimiento facial oral y extraoral a la percepción visual y audiovisual del habla". J Exp Psychol Hum Percept Realizar . 30 (5): 873–88. doi : 10.1037 / 0096-1523.30.5.873 . PMID 15462626 . 
  8. ^ Spehar, B; Goebel, S; Tye-Murray, N (2015). "Efectos del tipo de contexto en la lectura de labios y el rendimiento auditivo e implicaciones para el procesamiento de oraciones" . J Speech Lang Hear Res . 58 (3): 1093-102. doi : 10.1044 / 2015_JSLHR-H-14-0360 . PMC 4610295 . PMID 25863923 .  
  9. ^ Archivos, BT; Tjan, BS; Jiang, J; Bernstein, LE (2015). "Discriminación visual del habla e identificación de estímulos consonantes naturales y sintéticos" . Psicol delantero . 6 : 878. doi : 10.3389 / fpsyg.2015.00878 . PMC 4499841 . PMID 26217249 .  
  10. ^ Auer, ET; Bernstein, LE (1997). "Lectura del habla y la estructura del léxico: modelado computacionalmente los efectos de la distinción fonética reducida en la unicidad léxica". J Acoust Soc Am . 102 (6): 3704–10. Código Bibliográfico : 1997ASAJ..102.3704A . doi : 10.1121 / 1.420402 . PMID 9407662 . 
  11. ^ Feld J1, Sommers M 2011 Ahí va el vecindario: lectura de labios y la estructura del léxico mental. Speech Commun. Febrero; 53 (2): 220-228
  12. ^ Tye-Murray, N; Hale, S; Spehar, B; Myerson, J; Sommers, MS (2014). "Lectura de labios en niños en edad escolar: los roles de la edad, el estado auditivo y la capacidad cognitiva" . J Speech Lang Hear Res . 57 (2): 556–65. doi : 10.1044 / 2013_JSLHR-H-12-0273 . PMC 5736322 . PMID 24129010 .  
  13. ^ Feld, JE; Sommers, MS (2009). "Lectura de labios, velocidad de procesamiento y memoria de trabajo en adultos jóvenes y mayores" . J Speech Lang Hear Res . 52 (6): 1555–65. doi : 10.1044 / 1092-4388 (2009 / 08-0137) . PMC 3119632 . PMID 19717657 .  
  14. ^ "HuffPost - noticias de última hora, Estados Unidos y noticias del mundo" . HuffPost . Consultado el 11 de octubre de 2020 .
  15. ^ Meltzoff, AN; Moore, MK (1977). "Imitación de gestos faciales y manuales de neonatos humanos" . Ciencia . 198 (4312): 74–8. doi : 10.1126 / science.897687 . PMID 897687 . 
  16. ^ Dodd B.1976 Lectura de labios en bebés: atención al habla presentada dentro y fuera de sincronía. Psicología cognitiva Oct; 11 (4): 478-84
  17. ^ Spelke, E (1976). "Percepción intermodal infantil de los eventos". Psicología cognitiva . 8 (4): 553–560. doi : 10.1016 / 0010-0285 (76) 90018-9 . S2CID 1226796 . 
  18. ^ Burnham, D; Dodd, B (2004). "Integración auditiva-visual del habla de los bebés prelingüísticos: percepción de una consonante emergente en el efecto McGurk". Psicobiología del desarrollo . 45 (4): 204-20. doi : 10.1002 / dev.20032 . PMID 15549685 . 
  19. ^ Rosenblum, LD; Schmuckler, MA; Johnson, JA (1997). "El efecto McGurk en bebés" . Percept Psychophys . 59 (3): 347–57. doi : 10.3758 / BF03211902 . PMID 9136265 . 
  20. ^ Pons, F; et al. (2009). "Estrechamiento de la percepción del habla intersensorial en la infancia" . Actas de la Academia Nacional de Ciencias . 106 (26): 10598–602. Código Bibliográfico : 2009PNAS..10610598P . doi : 10.1073 / pnas.0904134106 . PMC 2705579 . PMID 19541648 .  
  21. ^ Lewkowicz, DJ; Ghazanfar, AA (2009). "La aparición de sistemas multisensoriales a través del estrechamiento perceptual". Tendencias en ciencias cognitivas . 13 (11): 470–8. CiteSeerX 10.1.1.554.4323 . doi : 10.1016 / j.tics.2009.08.004 . PMID 19748305 . S2CID 14289579 .   
  22. ^ Havy, M., Foroud, A., Fais, L. y Werker, JF (en prensa; en línea el 26 de enero de 2017). El papel del habla auditiva y visual en el aprendizaje de palabras a los 18 meses y en la edad adulta. Desarrollo infantil. (Versión preimpresa)
  23. ^ Mills, AE 1987 El desarrollo de la fonología en el niño ciego. En B. Dodd & R. Campbell (Eds) Hearing by Eye: la psicología de la lectura de labios, Hove UK, Lawrence Erlbaum Associates
  24. ^ Lewkowicz, DJ; Hansen-Tift, AM (enero de 2012). "Los bebés despliegan atención selectiva a la boca de una cara que habla cuando aprenden a hablar" . Actas de la Academia Nacional de Ciencias . 109 (5): 1431–6. Código bibliográfico : 2012PNAS..109.1431L . doi : 10.1073 / pnas.1114783109 . PMC 3277111 . PMID 22307596 .  
  25. Davies R1, Kidd E; Lander, K (2009). "Investigar los correlatos psicolingüísticos de la lectura del habla en niños en edad preescolar". Revista Internacional de Trastornos del Lenguaje y la Comunicación . 44 (2): 164–74. doi : 10.1080 / 13682820801997189 . hdl : 11858 / 00-001M-0000-002E-2344-8 . PMID 18608607 . 
  26. ^ Dodd B. 1987 La adquisición de la habilidad de leer los labios por niños que oyen normalmente. En B. Dodd & R. Campbell (Eds) Hearing by Eye, Erlbaum NJ pp163-176
  27. ^ Jerger, S; et al. (2009). "Cambios de desarrollo en la sensibilidad de los niños al habla visual: una nueva tarea multimodal de imágenes y palabras" . J Exp Child Psychol . 102 (1): 40–59. doi : 10.1016 / j.jecp.2008.08.002 . PMC 2612128 . PMID 18829049 .  
  28. ^ Kyle, FE; Campbell, R; Mohammed, T; Coleman, M; MacSweeney, M (2013). "Desarrollo de la lectura del habla en niños sordos y oyentes: introducción de la prueba de lectura del habla infantil" . Revista de investigación del habla, el lenguaje y la audición . 56 (2): 416–26. doi : 10.1044 / 1092-4388 (2012 / 12-0039) . PMC 4920223 . PMID 23275416 .  
  29. ^ Tye-Murray, N; Hale, S; Spehar, B; Myerson, J; Sommers, MS (2014). "Lectura de labios en niños en edad escolar: los roles de la edad, el estado auditivo y la capacidad cognitiva" . J Speech Lang Hear Res . 57 (2): 556–65. doi : 10.1044 / 2013_JSLHR-H-12-0273 . PMC 5736322 . PMID 24129010 .  
  30. ^ Peelle, JE; Sommers, MS (2015). "Predicción y restricción en la percepción del habla audiovisual" . Corteza . 68 : 169–81. doi : 10.1016 / j.cortex.2015.03.006 . PMC 4475441 . PMID 25890390 .  
  31. ^ Campbell, R (2008). "El procesamiento del habla audiovisual: bases empíricas y neuronales" . Philosophical Transactions de la Royal Society B . 363 (1493): 1001–1010. doi : 10.1098 / rstb.2007.2155 . PMC 2606792 . PMID 17827105 .  
  32. ^ Sumby, WH; Pollack, yo (1954). "Contribución visual a la inteligibilidad del habla en ruido". Revista de la Sociedad Americana de Acústica . 26 (2): 212–215. Código Bibliográfico : 1954ASAJ ... 26..212S . doi : 10.1121 / 1.1907309 .
  33. ^ Taljaard, Schmulian; et al. (2015). "La relación entre la discapacidad auditiva y la función cognitiva: un metaanálisis en adultos" (PDF) . Clin Otolaryngol . 41 (6): 718–729. doi : 10.1111 / coa.12607 . hdl : 2263/60768 . PMID 26670203 . S2CID 5327755 .   
  34. ^ Hung, SC; et al. (2015). "La pérdida de audición está asociada con el riesgo de enfermedad de Alzheimer: un estudio de casos y controles en personas mayores" . J Epidemiol . 25 (8): 517–21. doi : 10.2188 / jea.JE20140147 . PMC 4517989 . PMID 25986155 .  
  35. ^ Smith, EG; Bennetto, LJ (2007). "Integración del habla audiovisual y lectura de labios en el autismo". Revista de Psicología y Psiquiatría Infantil . 48 (8): 813–21. doi : 10.1111 / j.1469-7610.2007.01766.x . PMID 17683453 . 
  36. ^ Irwin, JR; Tornatore, LA; Brancazio, L; Whalen, DH (2011). "¿Pueden los niños con trastornos del espectro autista" oír "una cara que habla?" . Child Dev . 82 (5): 1397–403. doi : 10.1111 / j.1467-8624.2011.01619.x . PMC 3169706 . PMID 21790542 .  
  37. ^ Irwin, JR; Brancazio, L (2014). "¿Ver para oír? Patrones de mirada a caras que hablan en niños con trastornos del espectro autista" . Psicol delantero . 5 : 397. doi : 10.3389 / fpsyg.2014.00397 . PMC 4021198 . PMID 24847297 .  
  38. ^ Böhning, M; Campbell, R; Karmiloff-Smith, A (2002). "Percepción del habla audiovisual en el síndrome de Williams". Neuropsicología . 40 (8): 1396–406. doi : 10.1016 / s0028-3932 (01) 00208-1 . PMID 11931944 . S2CID 9125298 .  
  39. ^ Leybaert, J; Macchi, L; Huyse, A; Champoux, F; Bayard, C; Colin, C; Berthommier, F (2014). "Percepción atípica del habla audiovisual y efectos de McGurk en niños con discapacidad específica del lenguaje" . Psicol delantero . 5 : 422. doi : 10.3389 / fpsyg.2014.00422 . PMC 4033223 . PMID 24904454 .  
  40. ^ Mohammed T1, Campbell R; Macsweeney, M; Barry, F; Coleman, M (2006). "Lectura del habla y su asociación con la lectura entre personas sordas, auditivas y disléxicas". Lingüística clínica y fonética . 20 (7-8): 621-30. doi : 10.1080 / 02699200500266745 . PMID 17056494 . S2CID 34877573 .  
  41. ^ "Manos y Voces :: Artículos" .
  42. ^ Swanwick, R (2016). "Bilingüismo bimodal y educación de niños sordos" (PDF) . Enseñanza de idiomas . 49 (1): 1–34. doi : 10.1017 / S0261444815000348 . S2CID 146626144 .  
  43. ^ Bernstein, LE; Demorest, YO; Tucker, PE (2000). "Percepción del habla sin oír" . Percepción y psicofísica . 62 (2): 233–52. doi : 10.3758 / bf03205546 . PMID 10723205 . 
  44. ^ Bergeson TR1, Pisoni DB; Davis, RA (2005). "Desarrollo de las habilidades de comprensión audiovisual en niños prelocutivos sordos con implante coclear" . Oído y audición . 26 (2): 149–64. doi : 10.1097 / 00003446-200504000-00004 . PMC 3432935 . PMID 15809542 .  
  45. ^ "Soporte de comunicación para personas sordas" . 2015-11-24.
  46. ^ "Lipspeaker UK - servicios de comunicación para personas sordas y con problemas de audición" .
  47. ^ "Lectura y dislexia en niños sordos | Fundación Nuffield" .
  48. ^ Mayer, C. (2007). "Lo que realmente importa en el desarrollo temprano de la alfabetización de los niños sordos" . J Deaf Stud Deaf Educ . 12 (4): 411–31. doi : 10.1093 / sordo / enm020 . PMID 17566067 . 
  49. ^ Mohammed, Tara; Campbell, Ruth; MacSweeney, Mairéad; Barry, Fiona; Coleman, Michael (2006). "Lectura del habla y su asociación con la lectura entre personas sordas, auditivas y disléxicas". Lingüística clínica y fonética . 20 (7–8): 621–630. doi : 10.1080 / 02699200500266745 . PMID 17056494 . S2CID 34877573 .  
  50. ^ Kyle, FE; Harris, M. (2010). "Predictores del desarrollo de la lectura en niños sordos: un estudio longitudinal de 3 años" (PDF) . J Exp Child Psychol . 107 (3): 229–243. doi : 10.1016 / j.jecp.2010.04.011 . PMID 20570282 .  
  51. ^ Kyle, Fiona E .; Campbell, Ruth; Mohammed, Tara; Coleman, Mike; MacSweeney, Mairéad (2013). "Desarrollo de la lectura del habla en niños sordos y oyentes: introducción de la prueba de lectura del habla infantil" . Revista de investigación del habla, el lenguaje y la audición . 56 (2): 416–426. doi : 10.1044 / 1092-4388 (2012 / 12-0039) . PMC 4920223 . PMID 23275416 .  
  52. ^ Nicholls, GH; Ling, D (1982). "Cued Speech y la recepción del lenguaje hablado" . J Speech Hear Res . 25 (2): 262–9. doi : 10.1044 / jshr.2502.262 . PMID 7120965 . 
  53. ^ Leybaert, J; LaSasso, CJ (2010). "Habla con claves para mejorar la percepción del habla y el desarrollo del primer lenguaje de los niños con implantes cocleares" . Tendencias en amplificación . 14 (2): 96-112. doi : 10.1177 / 1084713810375567 . PMC 4111351 . PMID 20724357 .  
  54. ^ "Alfabeto de lectura de labios: vocales redondas" . Archivado desde el original el 23 de junio de 2014 . Consultado el 23 de junio de 2014 .
  55. ^ "Campañas e influenciar" .
  56. ^ "Inicio> Rachel-Walker> Facultad de Letras, Artes y Ciencias de USC Dana y David Dornsife" (PDF) .
  57. ^ "Síntesis de voz visual basada en reglas" . 1995. págs. 299-302.
  58. ^ Bosseler, Alexis; Massaro, Dominic W. (2003). "Desarrollo y evaluación de un tutor animado por computadora para el aprendizaje de vocabulario y lenguaje en niños con autismo". Revista de autismo y trastornos del desarrollo . 33 (6): 653–672. doi : 10.1023 / B: JADD.0000006002.82367.4f . PMID 14714934 . S2CID 17406145 .  
  59. ^ "Síntesis de voz visual - UEA" .
  60. ^ "La computadora de lectura de labios puede distinguir idiomas" .
  61. ^ https://www.youtube.com/watch?v=Tu2vInqqHX8
  62. Hickey, Shane (24 de abril de 2016). "Los innovadores: ¿Se puede enseñar a las computadoras a leer los labios?" . The Guardian .
  63. ^ "DeepMind AI de Google puede leer programas de televisión mejor que un profesional" .
  64. Petajan, E .; Bischoff, B .; Bodoff, D .; Brooke, NM (1988). "Un sistema de lectura de labios automático mejorado para mejorar el reconocimiento de voz" . Actas de la conferencia SIGCHI sobre factores humanos en sistemas informáticos - CHI '88 . págs. 19-25. doi : 10.1145 / 57167.57170 . ISBN 978-0201142372. S2CID  15211759 .
  65. ^ http://www.asel.udel.edu/icslp/cdrom/vol1/954/a954.pdf
  66. ^ http: //www.planetbiometrics.com-article-details-i-2250 [ enlace muerto permanente ]
  67. ^ Calvert, GA; Bullmore, ET; Brammer, MJ; et al. (1997). "Activación de la corteza auditiva durante la lectura de labios silenciosa". Ciencia . 276 (5312): 593–6. doi : 10.1126 / science.276.5312.593 . PMID 9110978 . 
  68. ^ Bernstein, LE; Liebenthal, E (2014). "Vías neuronales para la percepción visual del habla" . Frente Neurosci . 8 : 386. doi : 10.3389 / fnins.2014.00386 . PMC 4248808 . PMID 25520611 .  
  69. ^ Capitán, JI; van Wassenhove, V; Nusbaum, HC; Pequeño, SL (2007). "Escuchar labios y ver voces: cómo las áreas corticales que apoyan la producción del habla median la percepción del habla audiovisual" . Corteza cerebral . 17 (10): 2387–2399. doi : 10.1093 / cercor / bhl147 . PMC 2896890 . PMID 17218482 .  
  70. ^ Campbell, R; MacSweeney, M; Surguladze, S; Calvert, G; McGuire, P; Lactancia, J; Brammer, MJ; David, AS (2001). "Sustratos corticales para la percepción de acciones faciales: un estudio de resonancia magnética funcional de la especificidad de la activación para el habla vista y para actos de la cara inferior sin sentido (gurning)". Brain Res Cogn Brain Res . 12 (2): 233–43. doi : 10.1016 / s0926-6410 (01) 00054-4 . PMID 11587893 . 
  71. ^ Swaminathan, S .; MacSweeney, M .; Boyles, R .; Waters, D .; Watkins, KE; Möttönen, R. (2013). "Excitabilidad motora durante la percepción visual de lenguas habladas conocidas y desconocidas" . Cerebro y lenguaje . 126 (1): 1–7. doi : 10.1016 / j.bandl.2013.03.002 . PMC 3682190 . PMID 23644583 .  
  72. ^ Sams, M; et al. (1991). "Aulenko et al. 1991 Ver el habla: la información visual de los movimientos de los labios modifica la actividad en la corteza auditiva humana". Cartas de neurociencia . 127 (1): 141-145. doi : 10.1016 / 0304-3940 (91) 90914-f . PMID 1881611 . S2CID 9035639 .  
  73. Van Wassenhove, V; Grant, KW; Poeppel, D (enero de 2005). "El habla visual acelera el procesamiento neuronal del habla auditiva" . Actas de la Academia Nacional de Ciencias . 102 (4): 1181–6. Código Bibliográfico : 2005PNAS..102.1181V . doi : 10.1073 / pnas.0408949102 . PMC 545853 . PMID 15647358 .  
  74. ^ Pasillo DA1, Fussell C, Summerfield AQ. 2005 Leer el habla fluida de caras que hablan: redes cerebrales típicas y diferencias individuales J. Cogn Neurosci. 17 (6): 939-53.
  75. ^ Bernstein, LE; Jiang, J; Pantazis, D; Lu, ZL; Joshi, A (2011). "Procesamiento fonético visual localizado mediante gestos faciales de habla y no verbal en pantallas de video y de luz puntual" . Hum Brain Mapp . 32 (10): 1660–76. doi : 10.1002 / hbm.21139 . PMC 3120928 . PMID 20853377 .  
  76. ^ Capek, CM; Macsweeney, M; Woll, B; Waters, D; McGuire, PK; David, AS; Brammer, MJ; Campbell, R. (2008). "Circuitos corticales para la lectura silenciosa del habla en personas sordas y oyentes" . Neuropsicología . 46 (5): 1233–41. doi : 10.1016 / j.neuropsychologia.2007.11.026 . PMC 2394569 . PMID 18249420 .  

Bibliografía

  • D.Stork y M.Henneke (Eds) (1996) Lectura de voz por humanos y máquinas: modelos de sistemas y aplicaciones. Nato ASI series F Computer and Systems sciences Vol 150. Springer, Berlín Alemania
  • E.Bailly, P. Perrier y E.Vatikiotis-Bateson (Eds) (2012) Procesamiento de voz audiovisual, Cambridge University Press, Cambridge Reino Unido
  • Hearing By Eye (1987) , B. Dodd y R. Campbell (Eds), Erlbaum Asstes, Hillsdale NJ, EUA; Hearing by Eye II , (1997) R. Campbell, B. Dodd y D. Burnham (Eds), Psychology Press, Hove Reino Unido
  • DW Massaro (1987, reimpreso en 2014) Percepción del habla por oído y por ojo , Lawrence Erlbaum Associates, Hillsdale NJ

Otras lecturas

  • Dan Nosowitz (18 de febrero de 2020). "¿Cuál es el idioma más difícil de leer en los labios del mundo?" . Atlas Obscura .
  • Laura Ringham (2012). "Por qué es hora de reconocer el valor de la lectura de labios y la gestión del apoyo a la pérdida auditiva (Acción sobre la pérdida auditiva, informe completo)" (PDF) .

enlaces externos

  • Scottish Sensory Center 2005: taller sobre lectura de labios [1]
  • Clases de lectura de labios en Escocia: el camino a seguir. Informe 2015
  • UNA VISA; Grupo de interés especial de la International Speech Communication Association centrado en la lectura de labios y el habla audiovisual
  • Lectura de discursos para la recopilación de información: una encuesta de fuentes científicas [2]
Obtenido de " https://en.wikipedia.org/w/index.php?title=Lip_reading&oldid=1047312699 "