De Wikipedia, la enciclopedia libre
Saltar a navegación Saltar a búsqueda

La fonética es una rama de la lingüística que estudia cómo los humanos producen y perciben los sonidos o, en el caso de las lenguas de signos , los aspectos equivalentes de los signos. [1] Los fonéticos, lingüistas que se especializan en fonética, estudian las propiedades físicas del habla. El campo de la fonética se divide tradicionalmente en tres subdisciplinas basadas en las preguntas de investigación involucradas, como cómo los humanos planifican y ejecutan los movimientos para producir el habla ( fonética articulatoria ), cómo los diferentes movimientos afectan las propiedades del sonido resultante ( fonética acústica ) o cómo los humanos convierten las ondas sonoras en información lingüística ( fonética auditiva). Tradicionalmente, la unidad lingüística mínima de la fonética es el teléfono —un sonido del habla en una lengua— que se diferencia de la unidad fonológica del fonema ; el fonema es una categorización abstracta de teléfonos.

La fonética se ocupa en términos generales de dos aspectos del habla humana: la producción (las formas en que los seres humanos producen sonidos) y la percepción (la forma en que se entiende el habla). La modalidad comunicativa de un lenguaje describe el método por el cual un lenguaje produce y percibe lenguajes. Los idiomas con modalidades orales-auditivas como el inglés producen el habla oralmente (usando la boca) y perciben el habla de manera auditiva (usando los oídos). Los lenguajes de señas, como Auslan y ASL , tienen una modalidad visual manual, produciendo el habla manualmente (usando las manos) y percibiendo el habla visualmente (usando los ojos). ASL y algunos otros lenguajes de señas tienen además un dialecto manual-manual para usar en la firma táctil por hablantes sordociegos donde los signos se producen con las manos y también se perciben con las manos.

La producción del lenguaje consta de varios procesos interdependientes que transforman un mensaje no lingüístico en una señal lingüística hablada o por señas. Después de identificar un mensaje para ser codificado lingüísticamente, un hablante debe seleccionar las palabras individuales, conocidas como elementos léxicos, para representar ese mensaje en un proceso llamado selección léxica. Durante la codificación fonológica, a la representación mental de las palabras se les asigna su contenido fonológico como una secuencia de fonemas.a ser producido. Los fonemas se especifican para características articulatorias que denotan objetivos particulares como labios cerrados o la lengua en un lugar particular. Estos fonemas luego se coordinan en una secuencia de comandos musculares que se pueden enviar a los músculos, y cuando estos comandos se ejecutan correctamente, se producen los sonidos deseados.

Estos movimientos interrumpen y modifican una corriente de aire que resulta en una onda de sonido. La modificación la realizan los articuladores, con diferentes lugares y formas de articulación produciendo diferentes resultados acústicos. Por ejemplo, las palabras tack y sack comienzan con sonidos alveolares en inglés, pero difieren en la distancia entre la lengua y la cresta alveolar. Esta diferencia tiene grandes efectos en la corriente de aire y, por tanto, en el sonido que se produce. De manera similar, la dirección y la fuente de la corriente de aire pueden afectar el sonido. El mecanismo de la corriente de aire más común es el pulmonar, que utiliza los pulmones, pero la glotis y la lengua también se pueden utilizar para producir corrientes de aire.

La percepción del lenguaje es el proceso mediante el cual un oyente decodifica y comprende una señal lingüística. Para percibir el habla, la señal acústica continua debe convertirse en unidades lingüísticas discretas como fonemas , morfemas y palabras . Para identificar y categorizar correctamente los sonidos, los oyentes priorizan ciertos aspectos de la señal que pueden distinguir de manera confiable entre categorías lingüísticas. Si bien ciertas señales tienen prioridad sobre otras, muchos aspectos de la señal pueden contribuir a la percepción. Por ejemplo, aunque los lenguajes orales dan prioridad a la información acústica, el efecto McGurk muestra que la información visual se utiliza para distinguir información ambigua cuando las señales acústicas no son fiables.

La fonética moderna tiene tres ramas principales:

  • Fonética articulatoria que estudia la forma en que se hacen los sonidos con los articuladores.
  • Fonética acústica que estudia los resultados acústicos de diferentes articulaciones.
  • Fonética auditiva que estudia la forma en que los oyentes perciben y comprenden las señales lingüísticas.

Historia [ editar ]

Antigüedad [ editar ]

Los primeros estudios fonéticos conocidos se llevaron a cabo ya en el siglo VI a. C. por gramáticos sánscritos . [2] El erudito hindú Pāṇini se encuentra entre los más conocidos de estos primeros investigadores, cuya gramática de cuatro partes, escrita alrededor del 350 a. C., es influyente en la lingüística moderna y todavía representa "la gramática generativa más completa de cualquier idioma escrito hasta ahora". [3]Su gramática formó la base de la lingüística moderna y describió varios principios fonéticos importantes, incluida la voz. Este relato temprano describió la resonancia como producida por el tono, cuando las cuerdas vocales están cerradas, o el ruido, cuando las cuerdas vocales están abiertas. Los principios fonéticos de la gramática se consideran "primitivos" en el sentido de que son la base de su análisis teórico más que los objetos del análisis teórico en sí mismos, y los principios pueden inferirse de su sistema fonológico. [4]

Moderno [ editar ]

Los avances en fonética después de Pāṇini y sus contemporáneos fueron limitados hasta la era moderna, salvo algunas investigaciones limitadas de gramáticos griegos y romanos. En los milenios transcurridos entre los gramáticos indios y la fonética moderna, el enfoque cambió de la diferencia entre el lenguaje hablado y escrito, que era la fuerza impulsora detrás del relato de Pāṇini, y comenzó a centrarse en las propiedades físicas del habla únicamente. El interés sostenido en la fonética comenzó de nuevo alrededor de 1800 EC con el término "fonética" que se utilizó por primera vez en el sentido actual en 1841. [5] [2]Con los nuevos desarrollos en la medicina y el desarrollo de dispositivos de grabación de audio y visuales, las percepciones fonéticas pudieron usar y revisar datos nuevos y más detallados. Este período temprano de la fonética moderna incluyó el desarrollo de un alfabeto fonético influyente basado en posiciones articulatorias por Alexander Melville Bell . Conocido como habla visible , ganó prominencia como herramienta en la educación oral de niños sordos . [2]

Antes de la disponibilidad generalizada de equipos de grabación de audio, los fonéticos dependían en gran medida de una tradición de fonética práctica para garantizar que las transcripciones y los hallazgos pudieran ser consistentes entre los fonéticos. Este entrenamiento involucró tanto el entrenamiento del oído, el reconocimiento de los sonidos del habla, como el entrenamiento de producción, la capacidad de producir sonidos. Se esperaba que los fonéticos aprendieran a reconocer de oído los diversos sonidos del Alfabeto Fonético Internacional y la API todavía prueba y certifica a los hablantes en su capacidad para producir con precisión los patrones fonéticos del inglés (aunque han descontinuado esta práctica para otros idiomas). [6] Como una revisión de su método de habla visible, Melville Bell desarrolló una descripción de las vocales por altura y espalda que resultó en 9vocales cardinales . [7] Como parte de su formación en fonética práctica, se esperaba que los fonéticos aprendieran a producir estas vocales cardinales para anclar su percepción y transcripción de estos teléfonos durante el trabajo de campo. [6] Este enfoque fue criticado por Peter Ladefoged en la década de 1960 basado en evidencia experimental donde encontró que las vocales cardinales eran objetivos auditivos en lugar de articulatorios, desafiando la afirmación de que representaban anclas articulatorias por las cuales los fonéticos podían juzgar otras articulaciones. [8]

Producción [ editar ]

La producción del lenguaje consta de varios procesos interdependientes que transforman un mensaje no lingüístico en una señal lingüística hablada o por señas. Los lingüistas debaten si el proceso de producción del lenguaje ocurre en una serie de etapas (procesamiento en serie) o si los procesos de producción ocurren en paralelo. Después de identificar un mensaje para ser codificado lingüísticamente, un hablante debe seleccionar las palabras individuales, conocidas como elementos léxicos, para representar ese mensaje en un proceso llamado selección léxica. Las palabras se seleccionan en función de su significado, que en lingüística se denomina información semántica . La selección léxica activa el lema de la palabra , que contiene información tanto semántica como gramatical sobre la palabra. [9] [a]

Una vez que se ha planificado un enunciado, [b] pasa por la codificación fonológica. En esta etapa de producción del lenguaje, a la representación mental de las palabras se le asigna su contenido fonológico como una secuencia de fonemas a producir. Los fonemas se especifican para características articulatorias que denotan objetivos particulares como labios cerrados o la lengua en un lugar particular. Estos fonemas luego se coordinan en una secuencia de comandos musculares que se pueden enviar a los músculos, y cuando estos comandos se ejecutan correctamente, se producen los sonidos deseados. [11] Así, el proceso de producción del mensaje al sonido se puede resumir en la siguiente secuencia: [c]

  • Planificación de mensajes
  • Selección de lemas
  • Recuperación y asignación de formas fonológicas de las palabras.
  • Especificación articulatoria
  • Comandos musculares
  • Articulación
  • Sonidos del habla

Lugar de articulación [ editar ]

Los sonidos que se producen mediante una construcción total o parcial del tracto vocal se denominan consonantes . Las consonantes se pronuncian en el tracto vocal, generalmente en la boca, y la ubicación de esta construcción afecta el sonido resultante. Debido a la estrecha conexión entre la posición de la lengua y el sonido resultante, el lugar de articulación es un concepto importante en muchas subdisciplinas de la fonética.

Los sonidos se clasifican en parte por la ubicación de una construcción, así como por la parte del cuerpo que hace la constricción. Por ejemplo, en inglés las palabras luchó y pensamiento son un par mínimo que difiere solo en el órgano que hace la construcción en lugar de la ubicación de la construcción. La "f" en luchó es una articulación labiodental hecha con el labio inferior contra los dientes. La "th" en el pensamiento es una articulación linguodental hecha con la lengua contra los dientes. Las constricciones producidas por los labios se denominan labiales, mientras que las producidas con la lengua se denominan linguales.

Las constricciones hechas con la lengua se pueden producir en varias partes del tracto vocal, clasificadas en términos generales en lugares de articulación coronal, dorsal y radical. Las articulaciones coronales se hacen con el frente de la lengua, las articulaciones dorsales se hacen con el dorso de la lengua y las articulaciones radicales se hacen en la faringe . [12] Estas divisiones no son suficientes para distinguir y describir todos los sonidos del habla. [12] Por ejemplo, en inglés los sonidos [s] y [ʃ]son ambos coronales, pero se producen en diferentes lugares de la boca. Para tener en cuenta esto, se necesitan lugares de articulación más detallados según el área de la boca en la que se produce la constricción. [13]

Labial [ editar ]

Las articulaciones que involucran los labios se pueden realizar de tres formas diferentes: con ambos labios (bilabial), con un labio y los dientes (labiodental), y con la lengua y el labio superior (linguolabial). [14] Dependiendo de la definición utilizada, algunos o todos estos tipos de articulaciones pueden clasificarse en la clase de articulaciones labiales . Las consonantes bilabiales se hacen con ambos labios. Al producir estos sonidos, el labio inferior se mueve más lejos para encontrarse con el labio superior, que también se mueve ligeramente hacia abajo, [15] aunque en algunos casos la fuerza del aire que se mueve a través de la abertura (abertura entre los labios) puede hacer que los labios se separen más rápido que pueden unirse. [dieciséis]A diferencia de la mayoría de las otras articulaciones, ambos articuladores están hechos de tejido blando, por lo que es más probable que los topes bilabiales se produzcan con cierres incompletos que las articulaciones que involucran superficies duras como los dientes o el paladar. Las paradas bilabiales también son inusuales porque un articulador en la sección superior del tracto vocal se mueve activamente hacia abajo, ya que el labio superior muestra algún movimiento descendente activo. [17] Consonantes linguolabialesse hacen con la hoja de la lengua acercándose o en contacto con el labio superior. Como en las articulaciones bilabiales, el labio superior se mueve ligeramente hacia el articulador más activo. Las articulaciones de este grupo no tienen sus propios símbolos en el Alfabeto Fonético Internacional, sino que se forman combinando un símbolo apical con un diacrítico colocándolos implícitamente en la categoría coronal. [18] [19] Existen en varios idiomas autóctonos de Vanuatu como el Tangoa .

Las consonantes labiodentales se forman cuando el labio inferior se eleva hacia los dientes superiores. Las consonantes labiodentales suelen ser fricativas, mientras que las nasales labiodentales también son tipológicamente comunes. [20] Existe un debate sobre si las verdaderas oclusivas labiodentales ocurren en cualquier lenguaje natural, [21] aunque se informa que varios idiomas tienen oclusivas labiodentales, incluyendo zulú , [22] Tonga , [23] y shubi . [21]

Coronal [ editar ]

Las consonantes coronales se forman con la punta o la hoja de la lengua y, debido a la agilidad de la parte frontal de la lengua, representan una variedad no solo en el lugar sino también en la postura de la lengua. Los lugares coronales de articulación representan las áreas de la boca donde la lengua entra en contacto o hace una constricción, e incluyen ubicaciones dentales, alveolares y posalveolares. Las posturas de la lengua con la punta de la lengua pueden ser apicales si se usa la parte superior de la punta de la lengua, laminadas si se hacen con la punta de la lengua o subapicales si la punta de la lengua está doblada hacia atrás y se usa la parte inferior de la lengua. Las coronas son únicas como grupo en el sentido de que se atestigua toda forma de articulación . [18] [24] Idiomas australianosson bien conocidos por la gran cantidad de contrastes coronales exhibidos dentro y entre los idiomas de la región. [25] Las consonantes dentales se forman con la punta o la hoja de la lengua y los dientes superiores. Se dividen en dos grupos según la parte de la lengua utilizada para producirlos: las consonantes dentales apicales se producen con la punta de la lengua tocando los dientes; Las consonantes interdentales se producen con la hoja de la lengua cuando la punta de la lengua sobresale por delante de los dientes. No se conoce ningún idioma que utilice ambos de manera contrastiva, aunque pueden existir alofónicamente . Las consonantes alveolares se forman con la punta o la hoja de la lengua en la cresta alveolar justo detrás de los dientes y pueden ser igualmente apicales o laminares. [26]

Desde el punto de vista interlingüístico, las consonantes dentales y las consonantes alveolares se contrastan con frecuencia, lo que da lugar a una serie de generalizaciones de patrones interlingüísticos. Los diferentes lugares de articulación tienden a contrastarse también en la parte de la lengua que se utiliza para producirlos: la mayoría de las lenguas con oclusiones dentales tienen dentales laminares, mientras que las lenguas con oclusiones apicales suelen tener oclusiones apicales. Los idiomas rara vez tienen dos consonantes en el mismo lugar con un contraste en laminalidad, aunque Taa (ǃXóõ) es un contraejemplo de este patrón. [27] Si una lengua tiene solo uno de un stop dental o un stop alveolar, por lo general será laminal si es un stop dental, y el stop generalmente será apical si es un stop alveolar, aunque, por ejemplo, Temne y búlgaro[28] no sigan este patrón. [29] Si una lengua tiene una parada apical y laminal, entonces es más probable que la parada laminal esté africada como en Isoko , aunque Dahalo muestra el patrón opuesto con las paradas alveolares más africadas. [30]

Las consonantes retroflejas tienen varias definiciones diferentes dependiendo de si se le da prominencia a la posición de la lengua o la posición en el techo de la boca. En general, representan un grupo de articulaciones en las que la punta de la lengua está curvada hacia arriba hasta cierto punto. De esta manera, las articulaciones retroflejas pueden ocurrir en varias ubicaciones diferentes en el techo de la boca, incluidas las regiones alveolar, posalveolar y palatina. Si la parte inferior de la punta de la lengua hace contacto con el techo de la boca, es subapical, aunque los sonidos post-alveolares apicales también se describen como retroflex. [31] Los ejemplos típicos de paradas retroflejas subapicales se encuentran comúnmente en las lenguas dravidianas y en algunas lenguas autóctonas del suroeste de los Estados Unidos.la diferencia de contraste entre los topes dentales y alveolares es una ligera retroflexión del tope alveolar. [32] Acústicamente, la retroflexión tiende a afectar a los formantes superiores. [32]

Se ha hecho referencia a las articulaciones que tienen lugar justo detrás de la cresta alveolar, conocidas como consonantes post-alveolares , utilizando varios términos diferentes. Las consonantes post-alveolares apicales a menudo se denominan retroflex, mientras que las articulaciones laminares a veces se denominan palato-alveolares; [33] En la literatura australiana, estas paradas laminares se describen a menudo como "palatinas", aunque se producen más adelante que la región del paladar que se describe típicamente como palatina. [25] Debido a la variación anatómica individual, la articulación precisa de las paradas palato-alveolares (y las coronarias en general) puede variar ampliamente dentro de una comunidad de habla. [34]

Dorsal [ editar ]

Las consonantes dorsales son aquellas que se forman utilizando el cuerpo de la lengua en lugar de la punta o la hoja y normalmente se producen en el paladar, velo o úvula. Las consonantes palatinas se hacen usando el cuerpo de la lengua contra el paladar duro en el techo de la boca. Con frecuencia se contrastan con las consonantes velares o uvulares, aunque es raro que un idioma contraste las tres simultáneamente, con Jaqaru como un posible ejemplo de un contraste de tres vías. [35] Las consonantes velares se hacen usando el cuerpo de la lengua contra el velo . Son increíblemente comunes en varios idiomas; casi todos los idiomas tienen parada velar. Debido a que tanto las velares como las vocales se forman utilizando el cuerpo de la lengua, se ven muy afectadas por la coarticulación.con vocales y puede producirse tan adelante como el paladar duro o tan atrás como la úvula. Estas variaciones se dividen típicamente en velares frontal, central y posterior en paralelo con el espacio vocal. [36] Pueden ser difíciles de distinguir fonéticamente de las consonantes palatinas, aunque se producen ligeramente detrás del área de las consonantes palatinas prototípicas. [37] Las consonantes uvulares se forman cuando el cuerpo de la lengua entra en contacto o se acerca a la úvula. Son raros, ocurren en aproximadamente el 19 por ciento de los idiomas, y grandes regiones de América y África no tienen idiomas con consonantes uvulares. En los idiomas con consonantes uvulares, las oclusivas son más frecuentes seguidas de las continuas (incluidas las nasales). [38]

Faríngeo y laríngeo [ editar ]

Las consonantes producidas por las constricciones de la garganta son faríngeas y las producidas por una constricción de la laringe son laríngeas. Las laringe se hacen usando las cuerdas vocales, ya que la laringe está demasiado abajo en la garganta para alcanzar con la lengua. Sin embargo, los faríngeos están lo suficientemente cerca de la boca como para que partes de la lengua puedan alcanzarlos.

Las consonantes radicales utilizan la raíz de la lengua o la epiglotis durante la producción y se producen muy atrás en el tracto vocal. [39] Las consonantes faríngeas se forman retrayendo la raíz de la lengua lo suficiente como para casi tocar la pared de la faringe . Debido a las dificultades de producción, solo se pueden producir fricativas y aproximantes de esta manera. [40] [41] Las consonantes epiglóticas se forman con la epiglotis y la pared posterior de la faringe. Se han registrado paradas epiglóticas en Dahalo . [42] Las consonantes epiglóticas sonoras no se consideran posibles debido a la cavidad entre la glotis.y la epiglotis es demasiado pequeña para permitir la expresión. [43]

Las consonantes glotales son las que se producen utilizando las cuerdas vocales de la laringe. Debido a que las cuerdas vocales son la fuente de la fonación y debajo del tracto vocal oro-nasal, varias consonantes glotales son imposibles, como una oclusión glotal sonora. Son posibles tres consonantes glotales, una oclusión glotal sorda y dos fricativas glotales, y todas están atestiguadas en lenguajes naturales. [18] Las oclusiones glotales , producidas al cerrar las cuerdas vocales , son notablemente comunes en los idiomas del mundo. [43] Si bien muchos idiomas los usan para demarcar los límites de las frases, algunos idiomas como Huatla Mazatec los tienen como fonemas contrastivos. Además, las paradas glotales se pueden realizar como laringealización.de la siguiente vocal en este idioma. [44] Las oclusiones glotales, especialmente entre vocales, no suelen formar un cierre completo. Las verdaderas paradas glotales normalmente ocurren solo cuando están geminadas . [45]

La laringe [ editar ]

Una vista de arriba hacia abajo de la laringe.

La laringe, comúnmente conocida como "laringe", es una estructura cartilaginosa en la tráquea responsable de la fonación . Las cuerdas vocales (cuerdas) se mantienen juntas para que vibren, o se mantienen separadas para que no vibren. Las posiciones de las cuerdas vocales se logran mediante el movimiento de los cartílagos aritenoides . [46] Los músculos laríngeos intrínsecos son responsables de mover los cartílagos aritenoides y de modular la tensión de las cuerdas vocales. [47]Si las cuerdas vocales no están lo suficientemente cerradas o tensas, vibrarán esporádicamente o no vibrarán en absoluto. Si vibran esporádicamente resultará en una voz chirriante o entrecortada, dependiendo del grado; si no vibra en absoluto, el resultado será la falta de voz .

Además de colocar correctamente las cuerdas vocales, también debe haber aire fluyendo a través de ellas o no vibrarán. La diferencia de presión a través de la glotis requerida para la sonorización se estima en 1 - 2 cm H 2 0 (98.0665 - 196.133 pascales). [48] El diferencial de presión puede caer por debajo de los niveles requeridos para la fonación debido a un aumento de la presión por encima de la glotis (presión superglótica) o una disminución de la presión por debajo de la glotis (presión subglótica). La presión subglótica es mantenida por los músculos respiratorios . La presión supraglótica, sin constricciones ni articulaciones, es igual a aproximadamente la presión atmosférica. Sin embargo, debido a que las articulaciones, especialmente las consonantes, representan constricciones del flujo de aire, la presión en la cavidad detrás de esas constricciones puede aumentar dando como resultado una presión supraglótica más alta. [49]

Acceso léxico [ editar ]

Según el modelo de acceso léxico, se emplean dos etapas diferentes de cognición; por lo tanto, este concepto se conoce como la teoría de dos etapas del acceso léxico. La primera etapa, la selección léxica, proporciona información sobre los elementos léxicos necesarios para construir la representación del nivel funcional. Estos elementos se recuperan de acuerdo con sus propiedades semánticas y sintácticas específicas, pero las formas fonológicas aún no están disponibles en esta etapa. La segunda etapa, la recuperación de formas de palabras, proporciona la información necesaria para construir la representación del nivel posicional. [50]

Modelos articulatorios [ editar ]

Al producir el habla, los articuladores se mueven y entran en contacto con ubicaciones particulares en el espacio, lo que produce cambios en la señal acústica. Algunos modelos de producción del habla toman esto como base para modelar la articulación en un sistema de coordenadas que puede ser interno al cuerpo (intrínseco) o externo (extrínseco). Los sistemas de coordenadas intrínsecos modelan el movimiento de los articuladores como posiciones y ángulos de las articulaciones en el cuerpo. Los modelos de coordenadas intrínsecas de la mandíbula suelen utilizar de dos a tres grados de libertad para representar la traslación y la rotación. Estos enfrentan problemas con el modelado de la lengua que, a diferencia de las articulaciones de la mandíbula y los brazos, es un hidrostato muscular, como una trompa de elefante, que carece de articulaciones. [51]Debido a las diferentes estructuras fisiológicas, las trayectorias de movimiento de la mandíbula son líneas relativamente rectas durante el habla y la masticación, mientras que los movimientos de la lengua siguen curvas. [52]

Los movimientos en línea recta se han utilizado para argumentar articulaciones según lo planeado en el espacio extrínseco en lugar de intrínseco, aunque los sistemas de coordenadas extrínsecos también incluyen espacios de coordenadas acústicas, no solo espacios de coordenadas físicas. [51] Los modelos que asumen que los movimientos se planean en un espacio extrínseco se encuentran con un problema inversode explicar las ubicaciones de los músculos y las articulaciones que producen la trayectoria o señal acústica observada. El brazo, por ejemplo, tiene siete grados de libertad y 22 músculos, por lo que múltiples configuraciones diferentes de articulaciones y músculos pueden llevar a la misma posición final. Para los modelos de planificación en el espacio acústico extrínseco, también se aplica el mismo problema de mapeo de uno a muchos, sin un mapeo único de los objetivos físicos o acústicos a los movimientos musculares necesarios para lograrlos. Sin embargo, las preocupaciones sobre el problema inverso pueden ser exageradas, ya que el habla es una habilidad muy aprendida que utiliza estructuras neurológicas que evolucionaron para ese propósito. [53]

El modelo de punto de equilibrio propone una resolución al problema inverso al argumentar que los objetivos de movimiento se representan como la posición de los pares de músculos que actúan sobre una articulación. [d] Es importante destacar que los músculos se modelan como resortes, y el objetivo es el punto de equilibrio para el sistema modelado resorte-masa. Mediante el uso de resortes, el modelo de punto de equilibrio puede explicar fácilmente la compensación y la respuesta cuando se interrumpen los movimientos. Se consideran un modelo de coordenadas porque asumen que estas posiciones de los músculos se representan como puntos en el espacio, puntos de equilibrio, donde converge la acción de resorte de los músculos. [54] [55]

Los enfoques gestuales para la producción del habla proponen que las articulaciones se representan como patrones de movimiento en lugar de coordenadas particulares para golpear. La unidad mínima es un gesto que representa un grupo de "patrones de movimiento articulatorio funcionalmente equivalentes que se controlan activamente con referencia a un objetivo relevante del habla dado (por ejemplo, un cierre bilabial)". [56] Estos grupos representan estructuras coordinativas o "sinergias" que ven los movimientos no como movimientos musculares individuales sino como agrupaciones de músculos dependientes de la tarea que trabajan juntos como una sola unidad. [57] [58]Esto reduce los grados de libertad en la planificación de la articulación, un problema especialmente en los modelos de coordenadas intrínsecas, que permite cualquier movimiento que logre el objetivo del habla, en lugar de codificar los movimientos particulares en la representación abstracta. La coarticulación está bien descrita por modelos gestuales, ya que las articulaciones a velocidades de habla más rápidas pueden explicarse como compuestos de los gestos independientes a velocidades de voz más lentas. [59]

Acústica [ editar ]

Una forma de onda (arriba), un espectrograma (medio) y una transcripción (abajo) de una mujer que dice "Wikipedia" se muestra utilizando el software Praat para el análisis lingüístico.

Los sonidos del habla se crean mediante la modificación de una corriente de aire que da como resultado una onda de sonido. La modificación la realizan los articuladores, con diferentes lugares y formas de articulación produciendo diferentes resultados acústicos. Debido a que la postura del tracto vocal, no solo la posición de la lengua, puede afectar el sonido resultante, la forma de articulación es importante para describir el sonido del habla. Las palabras tachuela y sacoambos comienzan con sonidos alveolares en inglés, pero difieren en la distancia entre la lengua y la cresta alveolar. Esta diferencia tiene grandes efectos en la corriente de aire y, por tanto, en el sonido que se produce. De manera similar, la dirección y la fuente de la corriente de aire pueden afectar el sonido. El mecanismo de la corriente de aire más común es el pulmonar, que utiliza los pulmones, pero la glotis y la lengua también se pueden utilizar para producir corrientes de aire.

Tipos de voz y fonación [ editar ]

Una distinción importante entre los sonidos del habla es si están expresados. Los sonidos se expresan cuando las cuerdas vocales comienzan a vibrar en el proceso de fonación. Se pueden producir muchos sonidos con o sin fonación, aunque las limitaciones físicas pueden dificultar o imposibilitar la fonación para algunas articulaciones. Cuando se expresan las articulaciones, la principal fuente de ruido es la vibración periódica de las cuerdas vocales. Las articulaciones como las oclusivas sordas no tienen fuente acústica y se notan por su silencio, pero otros sonidos sordos como las fricativas crean su propia fuente acústica independientemente de la fonación.

La fonación está controlada por los músculos de la laringe, y los idiomas utilizan más detalles acústicos que las voces binarias. Durante la fonación, las cuerdas vocales vibran a un cierto ritmo. Esta vibración da como resultado una forma de onda acústica periódica que comprende una frecuencia fundamental y sus armónicos. La frecuencia fundamental de la onda acústica se puede controlar ajustando los músculos de la laringe, y los oyentes perciben esta frecuencia fundamental como tono. Los idiomas utilizan la manipulación del tono para transmitir información léxica en lenguajes tonales, y muchos idiomas usan el tono para marcar información prosódica o pragmática.

Para que las cuerdas vocales vibren, deben estar en la posición adecuada y debe haber aire fluyendo a través de la glotis. [48] ​​Los tipos de fonación se basan en un continuo de estados glotales desde completamente abierto (sin voz) hasta completamente cerrado (oclusión glótica). La posición óptima para la vibración y el tipo de fonación más utilizado en el habla, la voz modal, existe en el medio de estos dos extremos. Si la glotis es un poco más ancha, se produce una voz entrecortada, mientras que al acercar las cuerdas vocales se produce una voz chirriante. [60]

El patrón de fonación normal utilizado en el habla típica es la voz modal, donde las cuerdas vocales se mantienen juntas con una tensión moderada. Las cuerdas vocales vibran como una sola unidad periódica y eficientemente con un cierre glotal completo y sin aspiración. [61] Si se separan más, no vibran y, por lo tanto, producen teléfonos sin voz. Si se mantienen firmemente juntos, producen una oclusión glótica. [60]

Si las cuerdas vocales se mantienen un poco más separadas que en la voz modal, producen tipos de fonación como voz entrecortada (o murmullo) y voz susurrante. La tensión a través de los ligamentos vocales ( cuerdas vocales ) es menor que en la voz modal, lo que permite que el aire fluya con mayor libertad. Tanto la voz entrecortada como la voz susurrante existen en un continuo que se caracteriza libremente por pasar de la forma de onda más periódica de la voz entrecortada a la forma de onda más ruidosa de la voz susurrante. Acústicamente, ambos tienden a amortiguar al primer formante con una voz susurrante que muestra desviaciones más extremas. [62]

Mantener las cuerdas vocales más juntas resulta en una voz chirriante. La tensión a través de las cuerdas vocales es menor que en la voz modal, pero se mantienen juntas, lo que hace que solo vibren los ligamentos de las cuerdas vocales. [e] Los pulsos son muy irregulares, con tono bajo y amplitud de frecuencia. [63]

Algunos idiomas no mantienen una distinción de voz para algunas consonantes, [f] pero todos los idiomas usan la voz hasta cierto punto. Por ejemplo, no se sabe que ningún idioma tenga un contraste fonémico para las vocales con todas las vocales conocidas expresadas canónicamente. [g] Otras posiciones de la glotis, como la voz entrecortada y chirriante, se utilizan en varios idiomas, como Jalapa Mazatec , para contrastar fonemas, mientras que en otros idiomas, como el inglés, existen alofónicamente.

Hay varias formas de determinar si un segmento está sonoro o no, la más simple es sentir la laringe durante el habla y notar cuándo se sienten las vibraciones. Se pueden obtener mediciones más precisas mediante el análisis acústico de un espectrograma o corte espectral. En un análisis espectrográfico, los segmentos sonoros muestran una barra sonora, una región de alta energía acústica, en las bajas frecuencias de los segmentos sonoros. [64] Al examinar un empalme espectral, el espectro acústico en un momento dado en el tiempo un modelo de la vocal pronunciada invierte el filtrado de la boca produciendo el espectro de la glotis. A continuación, se ajusta un modelo computacional de la señal glotal sin filtrar a la señal acústica filtrada inversamente para determinar las características de la glotis. [sesenta y cinco]El análisis visual también está disponible utilizando equipo médico especializado, como ultrasonido y endoscopia. [64] [h]

Vocales [ editar ]

Las vocales se clasifican en términos generales por el área de la boca en la que se producen, pero debido a que se producen sin una constricción en el tracto vocal, su descripción precisa se basa en medir los correlatos acústicos de la posición de la lengua. La ubicación de la lengua durante la producción de vocales cambia las frecuencias en las que resuena la cavidad, y son estas resonancias, conocidas como formantes, las que se miden y utilizan para caracterizar las vocales.

La altura de las vocales se refiere tradicionalmente al punto más alto de la lengua durante la articulación. [66] El parámetro de altura se divide en cuatro niveles principales: alto (cerrado), medio cerrado, medio abierto y bajo (abierto). Las vocales cuya altura está en el medio se denominan mid. Las vocales cerradas ligeramente abiertas y las vocales abiertas ligeramente cerradas se denominan casi cerradas y casi abiertas, respectivamente. Las vocales más bajas no solo se articulan con una lengua bajada, sino también bajando la mandíbula. [67]

Si bien la API implica que hay siete niveles de altura de vocales, es poco probable que un idioma determinado pueda contrastar mínimamente los siete niveles. Chomsky y Halle sugieren que solo hay tres niveles, [68] aunque parece que se necesitan cuatro niveles de altura de vocales para describir el danés y es posible que algunos idiomas incluso necesiten cinco. [69]

El dorso vocal se divide en tres niveles: frontal, central y posterior. Los idiomas por lo general no contrastan mínimamente más de dos niveles de retroceso de vocales. Algunos idiomas que afirman tener una distinción de respaldo de tres vías incluyen el nimboran y el noruego . [70]

En la mayoría de los idiomas, los labios durante la producción de vocales se pueden clasificar como redondeados o no redondeados (extendidos), aunque se han descrito otros tipos de posiciones de los labios, como la compresión y la protrusión. La posición del labio está correlacionada con la altura y el dorso: las vocales anteriores y bajas tienden a no estar redondeadas, mientras que las vocales posteriores y altas generalmente son redondeadas. [71] Las vocales emparejadas en la tabla IPA tienen la vocal extendida a la izquierda y la vocal redondeada a la derecha. [72]

Junto con las características de las vocales universales descritas anteriormente, algunos idiomas tienen características adicionales como la nasalidad , la longitud y diferentes tipos de fonación, como sordos o chirriantes . A veces , se requieren gestos de la lengua más especializados, como la rótica , la raíz de la lengua avanzada , la faringealización , la estridencia y la fricación para describir una determinada vocal. [73]

Manera de articulación [ editar ]

Conocer el lugar de articulación no es suficiente para describir completamente una consonante, la forma en que ocurre la estenosis es igualmente importante. Los modos de articulación describen cómo exactamente el articulador activo modifica, estrecha o cierra el tracto vocal. [74]

Las paradas (también denominadas oclusivas) son consonantes en las que la corriente de aire está completamente obstruida. La presión se acumula en la boca durante la estenosis, que luego se libera como un pequeño estallido de sonido cuando los articuladores se separan. El velo se levanta para que el aire no pueda fluir a través de la cavidad nasal. Si el velo se baja y permite que el aire fluya por la nariz, el resultado es una parada nasal. Sin embargo, los fonéticos casi siempre se refieren a las paradas nasales simplemente como "nasales". [74] Las africadas son una secuencia de oclusiones seguidas de una fricativa en el mismo lugar. [75]

Las fricativas son consonantes en las que la corriente de aire se torna turbulenta al obstruir parcialmente, pero no completamente, parte del tracto vocal. [74] Los sibilantes son un tipo especial de fricativa donde la corriente de aire turbulenta se dirige hacia los dientes, [76] creando un silbido agudo. [77]

Las nasales (a veces denominadas tapones nasales) son consonantes en las que hay un cierre en la cavidad bucal y el velo se baja, lo que permite que el aire fluya por la nariz. [78]

En una aproximación , los articuladores se acercan, pero no tanto que permita una corriente de aire turbulenta. [77]

Las laterales son consonantes en las que la corriente de aire se obstruye a lo largo del centro del tracto vocal, lo que permite que la corriente de aire fluya libremente en uno o ambos lados. [77] Los laterales también se han definido como consonantes en las que la lengua se contrae de tal manera que la corriente de aire es mayor alrededor de los lados que sobre el centro de la lengua. [79] La primera definición no permite que el aire fluya sobre la lengua.

Los trinos son consonantes en las que la lengua o los labios se ponen en movimiento por la corriente de aire. [80] La estenosis se forma de tal manera que la corriente de aire provoca un patrón repetido de apertura y cierre de los articuladores blandos. [81] Los trinos apicales generalmente consisten en dos o tres períodos de vibración. [82]

Los golpes y colgajos son gestos únicos, rápidos, generalmente apicales, en los que la lengua se lanza contra el paladar, comparable a una parada muy rápida. [80] Estos términos a veces se usan indistintamente, pero algunos fonéticos hacen una distinción. [83] En un golpecito, la lengua hace contacto con el techo con un solo movimiento, mientras que en un colgajo la lengua se mueve tangencialmente al techo de la boca, golpeándolo al pasar.

Durante un mecanismo de flujo de aire glotalico , la glotis se cierra, atrapando un cuerpo de aire. Esto permite que el aire restante en el tracto vocal se mueva por separado. Un movimiento hacia arriba de la glotis cerrada moverá este aire hacia afuera, resultando en una consonante eyectiva . Alternativamente, la glotis puede bajar, succionando más aire en la boca, lo que resulta en una consonante implosiva . [84]

Los clics son paradas en las que el movimiento de la lengua hace que se succione aire en la boca, lo que se conoce como una corriente de aire velar . [85] Durante el clic, el aire se enrarece entre dos cierres articulatorios, produciendo un fuerte sonido de "clic" cuando se suelta el cierre anterior. La liberación del cierre anterior se denomina influjo de clic. La liberación del cierre posterior, que puede ser velar o uvular, es la salida del clic. Los clics se utilizan en varias familias de lenguas africanas, como las lenguas khoisan y bantú . [86]

Sistema pulmonar y subglótico [ editar ]

Los pulmones impulsan casi toda la producción del habla y su importancia en la fonética se debe a la creación de presión para los sonidos pulmonares. Los tipos de sonido más comunes en todos los idiomas son la salida pulmonar, donde se exhala aire de los pulmones. [87] Es posible lo contrario, aunque no se sabe que ningún idioma tenga sonidos pulmonares de ingreso como fonemas. [88] Muchos idiomas, como el sueco, los utilizan para articulaciones paralingüísticas , como afirmaciones en varios idiomas genéticamente y geográficamente diversos. [89]Tanto los sonidos progresivos como los entrantes se basan en mantener las cuerdas vocales en una postura particular y usar los pulmones para extraer aire a través de las cuerdas vocales para que vibren (se expresen) o no vibren (sin voz). [87] Las articulaciones pulmonares están restringidas por el volumen de aire que se puede exhalar en un ciclo respiratorio determinado, conocido como capacidad vital .

Los pulmones se utilizan para mantener dos tipos de presión simultáneamente con el fin de producir y modificar la fonación. Para producir fonación, los pulmones deben mantener una presión de 3 a 5 cm H 2 0 más alta que la presión por encima de la glotis. Sin embargo, se realizan ajustes pequeños y rápidos a la presión subglótica para modificar el habla para características suprasegmentales como el estrés. Se utilizan varios músculos torácicos para realizar estos ajustes. Debido a que los pulmones y el tórax se estiran durante la inhalación, las fuerzas elásticas de los pulmones por sí solas pueden producir diferenciales de presión suficientes para la fonación a volúmenes pulmonares superiores al 50 por ciento de la capacidad vital. [90] Por encima del 50 por ciento de la capacidad vital, los músculos respiratoriosse utilizan para "comprobar" las fuerzas elásticas del tórax para mantener un diferencial de presión estable. Por debajo de ese volumen, se utilizan para aumentar la presión subglótica al exhalar aire activamente.

Durante el habla, el ciclo respiratorio se modifica para adaptarse a las necesidades tanto lingüísticas como biológicas. La exhalación, generalmente alrededor del 60 por ciento del ciclo respiratorio en reposo, aumenta a alrededor del 90 por ciento del ciclo respiratorio. Debido a que las necesidades metabólicas son relativamente estables, el volumen total de aire que se mueve en la mayoría de los casos de habla sigue siendo aproximadamente el mismo que en la respiración de marea tranquila. [91] Los aumentos en la intensidad del habla de 18 dB (una conversación en voz alta) tienen un impacto relativamente pequeño en el volumen de aire movido. Debido a que sus sistemas respiratorios no están tan desarrollados como los adultos, los niños tienden a usar una mayor proporción de su capacidad vital en comparación con los adultos, con inhalaciones más profundas. [92]

Teoría de fuente-filtro [ editar ]

El modelo de fuente-filtro del habla es una teoría de la producción del habla que explica el vínculo entre la postura del tracto vocal y las consecuencias acústicas. Bajo este modelo, el tracto vocal se puede modelar como una fuente de ruido acoplada a un filtro acústico . [93] La fuente de ruido en muchos casos es la laringe durante el proceso de sonorización, aunque otras fuentes de ruido pueden modelarse de la misma manera. La forma del tracto vocal supraglotal actúa como filtro, y diferentes configuraciones de los articuladores dan como resultado diferentes patrones acústicos. Estos cambios son predecibles. El tracto vocal se puede modelar como una secuencia de tubos, cerrados en un extremo, con diámetros variables y utilizando ecuaciones para resonancia acústica.se puede derivar el efecto acústico de una postura articulatoria. [94] El proceso de filtrado inverso utiliza este principio para analizar el espectro fuente producido por las cuerdas vocales durante la sonorización. Al tomar la inversa de un filtro predicho, el efecto acústico del tracto vocal supraglotal se puede deshacer dando el espectro acústico producido por las cuerdas vocales. [95] Esto permite el estudio cuantitativo de los distintos tipos de fonación.

Percepción [ editar ]

La percepción del lenguaje es el proceso mediante el cual un oyente decodifica y comprende una señal lingüística. [i] Para poder percibir el habla, la señal acústica continua debe convertirse en unidades lingüísticas discretas como fonemas , morfemas y palabras . [96] Para identificar y categorizar correctamente los sonidos, los oyentes priorizan ciertos aspectos de la señal que pueden distinguir de manera confiable entre categorías lingüísticas. [97] Si bien ciertas señales se priorizan sobre otras, muchos aspectos de la señal pueden contribuir a la percepción. Por ejemplo, aunque los lenguajes orales dan prioridad a la información acústica, el efecto McGurkmuestra que la información visual se utiliza para distinguir información ambigua cuando las señales acústicas no son fiables. [98]

Si bien los oyentes pueden usar una variedad de información para segmentar la señal de voz, la relación entre la señal acústica y la percepción de la categoría no es un mapeo perfecto. Debido a la coarticulación , los entornos ruidosos y las diferencias individuales, existe un alto grado de variabilidad acústica dentro de las categorías. [99] Conocido como el problema de la invariancia perceptiva , los oyentes pueden percibir categorías de manera confiable a pesar de la variabilidad en la instanciación acústica. [100] Para hacer esto, los oyentes se adaptan rápidamente a los nuevos hablantes y cambiarán sus límites entre categorías para que coincidan con las distinciones acústicas que hace su interlocutor. [101]

Audición [ editar ]

Reproducir medios
Cómo los sonidos se abren camino desde la fuente hasta el cerebro

La audición, el proceso de escuchar sonidos, es la primera etapa de la percepción del habla. Los articuladores provocan cambios sistemáticos en la presión del aire que viajan como ondas sonoras al oído del oyente. Las ondas sonoras luego golpean el tímpano del oyente haciendo que vibre. La vibración del tímpano es transmitida por los huesecillos —tres pequeños huesos del oído medio— a la cóclea . [102] La cóclea es un tubo en forma de espiral lleno de líquido dividido longitudinalmente por el órgano de Corti que contiene la membrana basilar . La membrana basilar aumenta de grosor a medida que viaja a través de la cóclea, lo que hace que diferentes frecuencias resuenen en diferentes lugares. Este tonotópicoEl diseño permite que el oído analice el sonido de manera similar a una transformada de Fourier . [103]

La vibración diferencial del basilar hace que las células ciliadas dentro del órgano de Corti se muevan. Esto provoca la despolarización de las células ciliadas y, en última instancia, una conversión de la señal acústica en una señal neuronal. [104] Si bien las células ciliadas no producen potenciales de acción por sí mismas, liberan neurotransmisores en las sinapsis con las fibras del nervio auditivo , lo que sí produce potenciales de acción. De esta manera, los patrones de oscilaciones de la membrana basilar se convierten en patrones espacio-temporales de disparos que transmiten información sobre el sonido al tronco encefálico . [105]

Prosodia [ editar ]

Además de las consonantes y las vocales, la fonética también describe las propiedades del habla que no están localizadas en segmentos sino en unidades más grandes del habla, como sílabas y frases . La prosodia incluye características auditivas como el tono , la velocidad del habla , la duración y el volumen . Los idiomas usan estas propiedades en diferentes grados para implementar el acento , los acentos de tono y la entonación ; por ejemplo, el acento en inglés y español se correlaciona con cambios en el tono y la duración, mientras que el acento en galéstiene una correlación más consistente con el tono que con la duración y el estrés en tailandés solo se correlaciona con la duración. [106]

Teorías de la percepción del habla [ editar ]

Las primeras teorías de la percepción del habla, como la teoría motora, intentaron resolver el problema de la invariancia perceptiva argumentando que la percepción y la producción del habla estaban estrechamente vinculadas. En su forma más fuerte, la teoría motora sostiene que la percepción del habla requiere que el oyente acceda a la representación articulatoria de los sonidos; [107] para categorizar correctamente un sonido, un oyente aplica ingeniería inversa a la articulación que produciría ese sonido y, al identificar estos gestos, es capaz de recuperar la categoría lingüística deseada. [108]Si bien los hallazgos como el efecto McGurk y los estudios de casos de pacientes con lesiones neurológicas han brindado apoyo a la teoría motora, otros experimentos no han respaldado la forma fuerte de la teoría motora, aunque existe cierto respaldo para las formas más débiles de la teoría motora que afirman una no-teoría motora. Relación determinista entre producción y percepción. [108] [109] [110]

Las teorías sucesoras de la percepción del habla se centran en las señales acústicas de las categorías de sonido y pueden agruparse en dos categorías amplias: teorías abstraccionistas y teorías episódicas. [111] En las teorías abstraccionistas, la percepción del habla implica la identificación de un objeto léxico idealizado basado en una señal reducida a sus componentes necesarios y normalizando la señal para contrarrestar la variabilidad del hablante. Las teorías episódicas, como el modelo ejemplar, argumentan que la percepción del habla implica acceder a recuerdos detallados (es decir, recuerdos episódicos) de tokens previamente escuchados. El problema de la invariancia perceptiva se explica por las teorías episódicas como una cuestión de familiaridad: la normalización es un subproducto de la exposición a distribuciones más variables en lugar de un proceso discreto como afirman las teorías abstraccionistas. [111]

Subdisciplinas [ editar ]

Fonética acústica [ editar ]

La fonética acústica se ocupa de las propiedades acústicas de los sonidos del habla. La sensación de sonido es causada por fluctuaciones de presión que hacen que el tímpano se mueva. El oído transforma este movimiento en señales neuronales que el cerebro registra como sonido. Las formas de onda acústicas son registros que miden estas fluctuaciones de presión. [112]

Fonética articulatoria [ editar ]

La fonética articulatoria se ocupa de las formas en que se producen los sonidos del habla.

Fonética auditiva [ editar ]

La fonética auditiva estudia cómo los humanos percibimos los sonidos del habla. Debido a las características anatómicas del sistema auditivo que distorsionan la señal del habla, los seres humanos no experimentan los sonidos del habla como registros acústicos perfectos. Por ejemplo, las impresiones auditivas de volumen , medidas en decibelios (dB), no coinciden linealmente con la diferencia de presión sonora. [113]

El desajuste entre los análisis acústicos y lo que escucha el oyente es especialmente notable en los sonidos del habla que tienen mucha energía de alta frecuencia, como ciertas fricativas. Para conciliar este desajuste, se han desarrollado modelos funcionales del sistema auditivo. [114]

Describiendo sonidos [ editar ]

Los lenguajes humanos utilizan muchos sonidos diferentes y, para compararlos, los lingüistas deben ser capaces de describir los sonidos de una manera que sea independiente del lenguaje. Los sonidos del habla se pueden describir de varias formas. Con mayor frecuencia, los sonidos del habla se refieren a los movimientos de la boca necesarios para producirlos. Las consonantes y las vocales son dos categorías burdas que los fonéticos definen por los movimientos del sonido del habla. Los descriptores más detallados son parámetros como el lugar de articulación. El lugar de articulación , la forma de articulación y la voz se utilizan para describir consonantes y son las principales divisiones del Alfabeto Fonético Internacional.tabla de consonantes. Las vocales se describen por su altura, espalda y redondeo. El lenguaje de señas se describe utilizando un conjunto de parámetros similar pero distinto para describir las señas: ubicación, movimiento, forma de la mano, orientación de la palma y características no manuales. Además de las descripciones articulatorias, los sonidos utilizados en los lenguajes orales se pueden describir utilizando su acústica. Debido a que la acústica es una consecuencia de la articulación, ambos métodos de descripción son suficientes para distinguir los sonidos con la elección entre sistemas que dependen de la característica fonética que se investiga.

Las consonantes son sonidos del habla que se articulan con un cierre total o parcial del tracto vocal . Generalmente se producen mediante la modificación de una corriente de aire exhalada desde los pulmones. Los órganos respiratorios que se utilizan para crear y modificar el flujo de aire se dividen en tres regiones: el tracto vocal (supralaríngeo), la laringe y el sistema subglótico. La corriente de aire puede ser egresiva (fuera del tracto vocal) o ingresante (hacia el tracto vocal). En los sonidos pulmonares, la corriente de aire es producida por los pulmones en el sistema subglótico y pasa a través de la laringe y el tracto vocal. Los sonidos glotálicos utilizan una corriente de aire creada por los movimientos de la laringe sin flujo de aire de los pulmones.Las consonantes de clic se articulan a través de la rarefacción del aire usando la lengua, seguido de la liberación del cierre delantero de la lengua.

Las vocales son sonidos silábicos del habla que se pronuncian sin ninguna obstrucción en el tracto vocal. [115] A diferencia de las consonantes, que generalmente tienen lugares definidos de articulación, las vocales se definen en relación con un conjunto de vocales de referencia llamadas vocales cardinales . Se necesitan tres propiedades para definir las vocales: altura de la lengua, dorso de la lengua y redondez de los labios. Las vocales que se articulan con una cualidad estable se denominan monoftongos ; una combinación de dos vocales separadas en la misma sílaba es un diptongo . [116] En la API, las vocales están representadas en forma trapezoidal que representa la boca humana: el eje vertical representa la boca desde el piso hasta el techo y el eje horizontal representa la dimensión de adelante hacia atrás. [117]

Transcripción [ editar ]

La transcripción fonética es un sistema para transcribir teléfonos que ocurren en un idioma, ya sea oral o de signos . El sistema de transcripción fonética más conocido, el Alfabeto Fonético Internacional (IPA), proporciona un conjunto estandarizado de símbolos para teléfonos orales. [118] [119] La naturaleza estandarizada de la API permite a sus usuarios transcribir con precisión y coherencia los teléfonos de diferentes idiomas, dialectos e idiolectos . [118] [120] [121] La API es una herramienta útil no solo para el estudio de la fonética, sino también para la enseñanza de idiomas, la actuación profesional ypatología del habla . [120]

Si bien ningún lenguaje de señas tiene un sistema de escritura estandarizado, los lingüistas han desarrollado sus propios sistemas de notación que describen la forma de la mano, la ubicación y el movimiento. El sistema de notación de Hamburgo (HamNoSys) es similar al IPA en que permite diferentes niveles de detalle. Algunos sistemas de notación como KOMVA y el sistema Stokoe fueron diseñados para su uso en diccionarios; también utilizan letras alfabéticas en el idioma local para las formas de las manos, mientras que HamNoSys representa la forma de las manos directamente. SignWriting pretende ser un sistema de escritura fácil de aprender para lenguajes de señas, aunque aún no ha sido adoptado oficialmente por ninguna comunidad de sordos. [122]

Lenguas de señas [ editar ]

A diferencia de los idiomas hablados, las palabras en los lenguajes de signos se perciben con los ojos en lugar de con los oídos. Los signos se articulan con las manos, la parte superior del cuerpo y la cabeza. Los principales articuladores son las manos y los brazos. Las partes relativas del brazo se describen con los términos proximal y distal . Proximal se refiere a una parte más cercana al torso, mientras que una parte distal está más alejada de él. Por ejemplo, un movimiento de muñeca es distal en comparación con un movimiento de codo. Debido a que requieren menos energía, los movimientos distales son generalmente más fáciles de producir. Varios factores, como la flexibilidad muscular o ser considerado tabú , restringen lo que se puede considerar un signo. [123]Los firmantes nativos no miran las manos de su interlocutor. En cambio, su mirada se fija en el rostro. Debido a que la visión periférica no está tan enfocada como el centro del campo visual, los signos articulados cerca de la cara permiten percibir diferencias más sutiles en el movimiento y la ubicación de los dedos. [124]

A diferencia de las lenguas habladas, las lenguas de signos tienen dos articuladores idénticos: las manos. Los firmantes pueden usar la mano que prefieran sin interrumpir la comunicación. Debido a las limitaciones neurológicas universales, los signos de dos manos generalmente tienen el mismo tipo de articulación en ambas manos; esto se conoce como la condición de simetría. [123] La segunda restricción universal es la Condición de Dominio, que sostiene que cuando hay dos formas de mano involucradas, una mano permanecerá estacionaria y tendrá un conjunto de formas de mano más limitado en comparación con la mano dominante en movimiento. [125] Además, es común que se suelte una mano en un signo de dos manos durante las conversaciones informales, un proceso que se conoce como caída débil. [123]Al igual que las palabras en los idiomas hablados, la coarticulación puede hacer que los signos influyan en la forma de cada uno. Los ejemplos incluyen las formas de las manos de los signos vecinos que se vuelven más similares entre sí ( asimilación ) o una caída débil (una instancia de eliminación ). [126]

Ver también [ editar ]

  • Teoría motora de la percepción del habla
  • Teoría ejemplar
  • Fonología articulatoria

Referencias [ editar ]

Notas [ editar ]

  1. ↑ Los lingüistas debaten si estas etapas pueden interactuar o si ocurren en serie (comparar Dell y Reich (1981) y Motley, Camden y Baars (1982) ). Para facilitar la descripción, el proceso de producción del lenguaje se describe como una serie de etapas independientes, aunque la evidencia reciente muestra que esto es inexacto. [10] Para obtener más descripciones de los modelos de activación interactiva, consulte Jaeger, Furth & Hilliard (2012) .
  2. ^ o después de que se haya planificado parte de un enunciado; ver Gleitman et al. (2007) para obtener pruebas de la producción antes de que se haya planificado completamente un mensaje
  3. adaptado de Sedivy (2019 , p. 411) y Boersma (1998 , p. 11)
  4. ^ Ver Feldman (1966) para la propuesta original.
  5. ^ Consulte #La laringe para obtener más información sobre la anatomía de la fonación.
  6. Hawaiian, por ejemplo, no contrasta oclusivas sonoras y sordas.
  7. ^ Hay idiomas, como el japonés , donde las vocales se producen como sordas en ciertos contextos.
  8. ^ Consulte #Modelos de articulación para obtener más información sobre el modelado acústico.
  9. ^ Al igual que con la producción del habla, la naturaleza de la señal lingüística varía según la modalidad del lenguaje . La señal puede ser acústica para el habla oral, visual para los lenguajes de señas o táctil para los lenguajes de señas manuales-táctiles. Para simplificar el habla acústica se describe aquí; para la muestra de la percepción del lenguaje en concreto, consulte la percepción Lengua de signos # Entrar .

Citas [ editar ]

  1. ^ O'Grady , 2005 , p. 15.
  2. ^ a b c Caffrey, 2017 .
  3. ^ Kiparsky 1993 , p. 2918.
  4. ^ Kiparsky 1993 , págs. 2922-3.
  5. ^ Diccionario de inglés de Oxford 2018 .
  6. ^ a b Roach, 2015 .
  7. ^ Ladefoged 1960 , p. 388.
  8. ^ Ladefoged 1960 .
  9. ^ Dell y O'Seaghdha 1992 .
  10. ^ Sedivy 2019 , p. 439.
  11. ^ Boersma 1998 .
  12. ↑ a b Ladefoged , 2001 , p. 5.
  13. ^ Ladefoged y Maddieson 1996 , p. 9.
  14. ^ Ladefoged y Maddieson 1996 , p. dieciséis.
  15. ^ Maddieson 1993 .
  16. ^ Fujimura 1961 .
  17. ^ Ladefoged y Maddieson 1996 , págs. 16-17.
  18. ^ a b c Asociación Fonética Internacional 2015 .
  19. ^ Ladefoged y Maddieson 1996 , p. 18.
  20. ^ Ladefoged y Maddieson 1996 , págs. 17-18.
  21. ↑ a b Ladefoged y Maddieson 1996 , p. 17.
  22. ^ Doke 1926 .
  23. Guthrie , 1948 , p. 61.
  24. ^ Ladefoged y Maddieson 1996 , págs. 19–31.
  25. ↑ a b Ladefoged y Maddieson 1996 , p. 28.
  26. ^ Ladefoged y Maddieson 1996 , págs. 19-25.
  27. ^ Ladefoged y Maddieson 1996 , págs. 20, 40-1.
  28. ^ Scatton 1984 , p. 60.
  29. ^ Ladefoged y Maddieson 1996 , p. 23.
  30. ^ Ladefoged y Maddieson 1996 , págs. 23–5.
  31. ^ Ladefoged y Maddieson 1996 , págs. 25, 27–8.
  32. ↑ a b Ladefoged y Maddieson 1996 , p. 27.
  33. ^ Ladefoged y Maddieson 1996 , págs. 27–8.
  34. ^ Ladefoged y Maddieson 1996 , p. 32.
  35. ^ Ladefoged y Maddieson 1996 , p. 35.
  36. ^ Ladefoged y Maddieson 1996 , págs. 33–34.
  37. ^ Keating y Lahiri 1993 , p. 89.
  38. ^ Maddieson, 2013 .
  39. ^ Ladefoged y col. 1996 , pág. 11.
  40. Lodge 2009 , p. 33.
  41. ^ Ladefoged y Maddieson 1996 , p. 37.
  42. ^ Ladefoged y Maddieson , p. 37.
  43. ↑ a b Ladefoged y Maddieson 1996 , p. 38.
  44. ^ Ladefoged y Maddieson 1996 , p. 74.
  45. ^ Ladefoged y Maddieson 1996 , p. 75.
  46. ^ Ladefoged 2001 , p. 123.
  47. ^ Seikel, Drumright y King 2016 , p. 222.
  48. ↑ a b Ohala , 1997 , p. 1.
  49. ^ Chomsky y Halle 1968 , págs. 300-301.
  50. ^ Altmann 2002 .
  51. ↑ a b Löfqvist , 2010 , p. 359.
  52. ^ Munhall, Ostry y Flanagan 1991 , p. 299 y siguientes.
  53. ^ Löfqvist 2010 , p. 360.
  54. ^ Bizzi y col. 1992 .
  55. ^ Löfqvist 2010 , p. 361.
  56. ^ Saltzman y Munhall 1989 .
  57. ^ Mattingly 1990 .
  58. ^ Löfqvist 2010 , págs. 362–4.
  59. ^ Löfqvist 2010 , p. 364.
  60. ^ a b Gordon y Ladefoged, 2001 .
  61. ^ Gobl y Ní Chasaide 2010 , p. 399.
  62. ^ Gobl y Ní Chasaide 2010 , p. 400-401.
  63. ^ Gobl y Ní Chasaide 2010 , p. 401.
  64. ^ a b Dawson y Phelan, 2016 .
  65. ^ Gobl y Ní Chasaide 2010 , págs. 388 y siguientes .
  66. ^ Ladefoged y Maddieson 1996 , p. 282.
  67. Lodge 2009 , p. 39.
  68. ^ Chomsky y Halle 1968 .
  69. ^ Ladefoged y Maddieson 1996 , p. 289.
  70. ^ Ladefoged y Maddieson , p. 290.
  71. ^ Ladefoged y Maddieson , p. 292-295.
  72. Lodge 2009 , p. 40.
  73. ^ Ladefoged y Maddieson , p. 298.
  74. ↑ a b c Ladefoged & Johnson , 2011 , p. 14.
  75. ^ Ladefoged y Johnson 2011 , p. 67.
  76. ^ Ladefoged y Maddieson 1996 , p. 145.
  77. ↑ a b c Ladefoged & Johnson , 2011 , p. 15.
  78. ^ Ladefoged y Maddieson 1996 , p. 102.
  79. ^ Ladefoged y Maddieson 1996 , p. 182.
  80. ↑ a b Ladefoged & Johnson , 2011 , p. 175.
  81. ^ Ladefoged y Maddieson 1996 , p. 217.
  82. ^ Ladefoged y Maddieson 1996 , p. 218.
  83. ^ Ladefoged y Maddieson 1996 , p. 230-231.
  84. ^ Ladefoged y Johnson 2011 , p. 137.
  85. ^ Ladefoged y Maddieson 1996 , p. 78.
  86. ^ Ladefoged y Maddieson 1996 , p. 246-247.
  87. ↑ a b Ladefoged , 2001 , p. 1.
  88. ^ Eklund , 2008 , p. 237.
  89. ^ Eklund, 2008 .
  90. ^ Seikel, Drumright y King 2016 , p. 176.
  91. ^ Seikel, Drumright y King 2016 , p. 171.
  92. ^ Seikel, Drumright & King 2016 , págs. 168–77.
  93. ^ Johnson , 2008 , p. 83–5.
  94. ^ Johnson , 2008 , p. 104–5.
  95. ^ Johnson , 2008 , p. 157.
  96. ^ Sedivy 2019 , p. 259–60.
  97. ^ Sedivy 2019 , p. 269.
  98. ^ Sedivy 2019 , p. 273.
  99. ^ Sedivy 2019 , p. 259.
  100. ^ Sedivy 2019 , p. 260.
  101. ^ Sedivy 2019 , p. 274–85.
  102. ^ Johnson 2003 , p. 46–7.
  103. ^ Johnson 2003 , p. 47.
  104. ^ Schacter, Gilbert y Wegner 2011 , p. 158–9.
  105. ^ Yost 2003 , p. 130.
  106. ^ Cutler 2005 .
  107. ^ Sedivy 2019 , p. 289.
  108. ^ a b Galantucci, Fowler y Turvey, 2006 .
  109. ^ Sedivy 2019 , p. 292–3.
  110. ^ Capitán, Devlin y Lametti 2017 .
  111. ↑ a b Goldinger, 1996 .
  112. ^ Johnson 2003 , p. 1.
  113. ^ Johnson 2003 , p. 46-49.
  114. ^ Johnson 2003 , p. 53.
  115. ^ Ladefoged y Maddieson 1996 , p. 281.
  116. ^ Gussenhoven y Jacobs 2017 , p. 26-27.
  117. Lodge 2009 , p. 38.
  118. ↑ a b O'Grady , 2005 , p. 17.
  119. ^ Asociación Fonética Internacional 1999 .
  120. ↑ a b Ladefoged, 2005 .
  121. ^ Ladefoged y Maddieson 1996 .
  122. ^ Baker y col. 2016 , pág. 242-244.
  123. ^ a b c Baker y col. 2016 , pág. 229-235.
  124. ^ Baker y col. 2016 , pág. 236.
  125. ^ Baker y col. 2016 , pág. 286.
  126. ^ Baker y col. 2016 , pág. 239.

Obras citadas [ editar ]

  • Abercrombie, D. (1967). Elementos de fonética general . Edimburgo: Chicago, Aldine Pub. Co.
  • Altmann, Gerry (2002). Psicolingüística: conceptos críticos en psicología . Londres: Routledge. ISBN 978-0415229906. OCLC  48014482 .
  • Baker, Anne; van den Bogaerde, Beppie; Pfau, Roland; Schermer, Trude (2016). La lingüística de las lenguas de signos . Amsterdam / Filadelfia: John Benjamins Publishing Company. ISBN 978-90-272-1230-6.
  • Baumbach, EJ M (1987). Gramática analítica de Tsonga . Pretoria: Universidad de Sudáfrica.
  • Bizzi, E .; Hogan, N .; Mussa-Ivaldi, F .; Giszter, S. (1992). "¿El sistema nervioso utiliza el control del punto de equilibrio para guiar los movimientos articulares únicos y múltiples?". Ciencias del comportamiento y del cerebro . 15 (4): 603-13. doi : 10.1017 / S0140525X00072538 . PMID  23302290 .
  • Bock, Kathryn; Levelt, Willem (2002). Atlmann, Gerry (ed.). Psicolingüística: conceptos críticos en psicología . 5 . Nueva York: Routledge. págs. 405–407. ISBN 978-0-415-26701-4.
  • Boersma, Paul (1998). Fonología funcional: formalización de las interacciones entre impulsos articulatorios y perceptivos . La Haya: Holland Academic Graphics. ISBN 9055690546. OCLC  40563066 .
  • Caffrey, Cait (2017). "Fonética". Enciclopedia de Salem Press . Salem Press.
  • Catford, JC (2001). Una introducción práctica a la fonética (2ª ed.). Prensa de la Universidad de Oxford. ISBN 978-0-19-924635-9.
  • Chomsky, Noam; Halle, Morris (1968). Patrón de sonido del inglés . Harper y Row.
  • Cutler, Anne (2005). "Estrés léxico" (PDF) . En Pisoni, David B .; Remez, Robert (eds.). El manual de percepción del habla . Blackwell. págs. 264-289. doi : 10.1002 / 9780470757024.ch11 . ISBN 978-0-631-22927-8. OCLC  749782145 . Consultado el 29 de diciembre de 2019 .
  • Dawson, Hope; Phelan, Michael, eds. (2016). Archivos de idioma: Materiales para una introducción a la lingüística (12ª ed.). Prensa de la Universidad Estatal de Ohio. ISBN 978-0-8142-5270-3.
  • Dell, Gary; O'Seaghdha, Padraig (1992). "Etapas del acceso léxico en la producción lingüística". Cognición . 42 (1-3): 287-314. doi : 10.1016 / 0010-0277 (92) 90046-k . PMID  1582160 .
  • Dell, Gary; Reich, Peter (1981). "Etapas en la producción de oraciones: un análisis de datos de errores de habla". Revista de memoria y lenguaje . 20 (6): 611–629. doi : 10.1016 / S0022-5371 (81) 90202-4 .
  • Doke, Clement M (1926). La fonética de la lengua zulú . Estudios bantúes. Johannesburgo: Wiwatersrand University Press.
  • Eklund, Robert (2008). "Fonación entrante pulmonar: características diacrónicas y sincrónicas, distribución y función en la producción de sonido animal y humano y en el habla humana". Revista de la Asociación Fonética Internacional . 38 (3): 235–324. doi : 10.1017 / S0025100308003563 .
  • Feldman, Anatol G. (1966). "Puesta a punto funcional del sistema nervioso con control del movimiento o mantenimiento de una postura estable, III: Análisis mecanográfico de la ejecución por parte del hombre de la tarea motora más simple". Biofísica . 11 : 565–578.
  • Fujimura, Osamu (1961). "Stop bilabial y consonantes nasales: un estudio cinematográfico y sus implicaciones acústicas". Revista de investigación del habla y la audición . 4 (3): 233–47. doi : 10.1044 / jshr.0403.233 . PMID  13702471 .
  • Galantucci, Bruno; Fowler, Carol; Turvey, Michael (2006). "La teoría motora de la percepción del habla revisada" . Boletín y revisión psiconómica . 13 (3): 361–377. doi : 10.3758 / BF03193857 . PMC  2746041 . PMID  17048719 .
  • Gleitman, Lila; Enero, David; Nappa, Rebecca; Trueswell, John (2007). "En el toma y daca entre la aprehensión del evento y la formulación de la expresión" . Revista de memoria y lenguaje . 57 (4): 544–569. doi : 10.1016 / j.jml.2007.01.007 . PMC  2151743 . PMID  18978929 .
  • Gobl, Christer; Ní Chasaide, Ailbhe (2010). "Variación de la fuente de voz y sus funciones comunicativas". El Manual de Ciencias Fonéticas (2ª ed.). págs. 378–424.
  • Goldinger, Stephen (1996). "Palabras y voces: huellas episódicas en la memoria de identificación y reconocimiento de palabras habladas". Revista de psicología experimental: aprendizaje, memoria y cognición . 22 (5): 1166–83. doi : 10.1037 / 0278-7393.22.5.1166 .
  • Gordon, Matthew; Ladefoged, Peter (2001). "Tipos de fonación: una visión translingüística". Revista de Fonética . 29 (4): 383–406. doi : 10.1006 / jpho.2001.0147 .
  • Guthrie, Malcolm (1948). La clasificación de las lenguas bantúes . Londres: Oxford University Press.
  • Gussenhoven, Carlos; Jacobs, Haike (2017). Comprensión de la fonología (Cuarta ed.). Londres y Nueva York: Routledge. ISBN 9781138961418. OCLC  958066102 .
  • Hall, Tracy Alan (2001). "Introducción: Representaciones fonológicas e implementación fonética de rasgos distintivos". En Hall, Tracy Alan (ed.). Teoría de rasgos distintivos . de Gruyter. págs. 1-40.
  • Halle, Morris (1983). "Sobre Rasgos Distintivos y su implementación articulatoria". Lenguaje natural y teoría lingüística . 1 (1): 91-105. doi : 10.1007 / BF00210377 .
  • Hardcastle, William; Laver, John; Gibbon, Fiona, eds. (2010). El Manual de Ciencias Fonéticas (2ª ed.). Wiley-Blackwell. ISBN 978-1-405-14590-9.
  • Asociación Fonética Internacional (1999). Manual de la Asociación Fonética Internacional . Prensa de la Universidad de Cambridge.
  • Asociación Fonética Internacional (2015). Alfabeto fonético internacional . Asociación Fonética Internacional.
  • Jaeger, Florian; Furth, Katrina; Hilliard, Caitlin (2012). "La superposición fonológica afecta la selección léxica durante la producción de oraciones". Revista de psicología experimental: aprendizaje, memoria y cognición . 38 (5): 1439–1449. doi : 10.1037 / a0027862 . PMID  22468803 .
  • Jakobson, Roman; Fant, Gunnar; Halle, Morris (1976). Preliminares al análisis del habla: las características distintivas y sus correlaciones . MIT Press. ISBN 978-0-262-60001-9.
  • Johnson, Keith (2003). Fonética acústica y auditiva (2ª ed.). Pub Blackwell. ISBN 1405101229. OCLC  50198698 .
  • Johnson, Keith (2011). Fonética acústica y auditiva (3ª ed.). Wiley-Blackwell. ISBN 978-1-444-34308-3.
  • Jones, Daniel (1948). "La escuela londinense de fonética". Zeitschrift für Phonetik . 11 (3/4): 127-135.(Reimpreso en Jones, WE; Laver, J., eds. (1973). Fonética en Lingüística . Longman. Pp. 180-186.)
  • Keating, Patricia; Lahiri, Aditi (1993). "Velares frontales, velares palatalizados y palatales". Phonetica . 50 (2): 73–101. doi : 10.1159 / 000261928 . PMID  8316582 .
  • Kingston, John (2007). "La interfaz fonética-fonología". En DeLacy, Paul (ed.). El Manual de Fonología de Cambridge . Prensa de la Universidad de Cambridge. ISBN 978-0-521-84879-4.
  • Kiparsky, Paul (1993). "Lingüística paniniana". En Asher, RE (ed.). Enciclopedia de Lenguas y Lingüística . Oxford: Pérgamo.
  • Ladefoged, Peter (1960). "El valor de las declaraciones fonéticas". Idioma . 36 (3): 387–96. doi : 10.2307 / 410966 . JSTOR  410966 .
  • Ladefoged, Peter (2001). Un curso de fonética (4ª ed.). Boston: Thomson / Wadsworth . ISBN 978-1-413-00688-9.
  • Ladefoged, Peter (2005). Un curso de fonética (5ª ed.). Boston: Thomson / Wadsworth . ISBN 978-1-413-00688-9.
  • Ladefoged, Peter ; Johnson, Keith (2011). Un curso de fonética (6ª ed.). Wadsworth. ISBN 978-1-42823126-9.
  • Ladefoged, Peter; Maddieson, Ian (1996). Los sonidos de los idiomas del mundo . Oxford: Blackwell. ISBN 978-0-631-19815-4.
  • Levelt, Willem (1999). "Una teoría del acceso léxico en la producción del habla". Ciencias del comportamiento y del cerebro . 22 (1): 3–6. doi : 10.1017 / s0140525x99001776 . hdl : 11858 / 00-001M-0000-0013-3E7A-A . PMID  11301520 .
  • Lodge, Ken (2009). Una introducción crítica a la fonética . Nueva York: Continuum International Publishing Group. ISBN 978-0-8264-8873-2.
  • Löfqvist, Anders (2010). "Teorías y modelos de producción del habla". Manual de Ciencias Fonéticas (2ª ed.). págs. 353–78.
  • Maddieson, Ian (1993). "Investigando articulaciones de oveja con articulografía electromagnética". Forschungberichte des Intituts für Phonetik und Sprachliche Kommunikation der Universität München . 31 : 181–214.
  • Maddieson, Ian (2013). "Consonantes Uvulares" . En Dryer, Matthew S .; Haspelmath, Martin (eds.). Atlas mundial de estructuras lingüísticas en línea . Leipzig: Instituto Max Planck de Antropología Evolutiva.
  • Mattingly, Ignatius (1990). "El carácter global de los gestos fonéticos" (PDF) . Revista de Fonética . 18 (3): 445–52. doi : 10.1016 / S0095-4470 (19) 30372-9 .
  • Motley, Michael; Camden, Carl; Baars, Bernard (1982). "Formulación encubierta y edición de anomalías en la producción del habla: evidencia de deslizamientos de la lengua provocados experimentalmente". Revista de aprendizaje verbal y comportamiento verbal . 21 (5): 578–594. doi : 10.1016 / S0022-5371 (82) 90791-5 .
  • Munhall, K .; Ostry, D; Flanagan, J. (1991). "Coordinar espacios en la planificación del habla" . Revista de Fonética . 19 (3–4): 293–307. doi : 10.1016 / S0095-4470 (19) 30346-8 .
  • O'Connor, JD (1973). Fonética . Pelícano. págs. 16-17. ISBN 978-0140215601.
  • O'Grady, William (2005). Lingüística contemporánea: una introducción (5ª ed.). Bedford / St. Martin's. ISBN 978-0-312-41936-3.
  • Ohala, John (1997). "Aerodinámica de la fonología" . Actas de la Conferencia Internacional de Lingüística de Seúl . 92 .
  • "Fonética, n.". Diccionario de inglés de Oxford en línea . Prensa de la Universidad de Oxford. 2018.
  • Roach, Peter (2015). "Entrenamiento fonético práctico" . Peter Roach . Consultado el 10 de mayo de 2019 .
  • Saltzman, Elliot; Munhall, Kevin (1989). "Enfoque dinámico de los patrones gestuales en la producción de voz" (PDF) . Psicología ecológica . 1 (4): 333–82. doi : 10.1207 / s15326969eco0104_2 .
  • Scatton, Ernest (1984). Una gramática de referencia del búlgaro moderno . Slavica. ISBN 978-0893571238.
  • Schacter, Daniel; Gilbert, Daniel; Wegner, Daniel (2011). "Sensación y Percepción" . En Charles Linsmeiser (ed.). Psicologia . Digno de los editores. ISBN 978-1-4292-3719-2.
  • Schiller, Niels; Bles, Mart; Jansma, Bernadette (2003). "Seguimiento del curso temporal de la codificación fonológica en la producción del habla: un estudio de potencial cerebral relacionado con eventos". Investigación cognitiva del cerebro . 17 (3): 819–831. doi : 10.1016 / s0926-6410 (03) 00204-0 . PMID  14561465 .
  • Sedivy, Julie (2019). Language in Mind: Una introducción a la psicolingüística (2ª ed.). ISBN 978-1605357058.
  • Seikel, J. Anthony; Drumright, David; King, Douglas (2016). Anatomía y fisiología del habla, el lenguaje y la audición (5ª ed.). Cengage. ISBN 978-1-285-19824-8.
  • Capitán, Jeremy; Devlin, Joseph; Lametti, Daniel (2017). "El oído que escucha siempre se encuentra cerca de la lengua hablante: revisión del papel del sistema motor en la percepción del habla" . Cerebro y lenguaje . 164 : 77-105. doi : 10.1016 / j.bandl.2016.10.004 . PMID  27821280 .
  • Stearns, Peter; Adas, Michael; Schwartz, Stuart; Gilbert, Marc Jason (2001). Civilizaciones del mundo (3ª ed.). Nueva York: Longman. ISBN 978-0-321-04479-2.
  • Trask, RL (1996). Diccionario de fonética y fonología . Abingdon: Routledge. ISBN 978-0-415-11261-1.
  • Yost, William (2003). "Audición" . En Alice F. Healy; Robert W. Proctor (eds.). Manual de psicología: psicología experimental . John Wiley e hijos. pag. 130. ISBN 978-0-471-39262-0.

Enlaces externos [ editar ]

  • Colección de recursos fonéticos de la Universidad de Carolina del Norte
  • "Una pequeña enciclopedia de fonética" de Peter Roach .
  • Pink Trombone , un simulador de articulación interactivo de Neil Thapen.