La cognición incorporada ocurre cuando las capacidades sensoriomotoras de un organismo (capacidad del cuerpo para responder a sus sentidos con movimiento), el cuerpo y el entorno juegan un papel importante en el pensamiento. La forma en que interactúa el cuerpo de una persona y su entorno también permite que se desarrollen funciones cerebrales específicas y que en el futuro puedan actuar. [1] Esto significa que no solo la mente influye en los movimientos del cuerpo, sino que el cuerpo también influye en las habilidades de la mente, también denominada hipótesis bidireccional . Hay tres generalizaciones que se suponen verdaderas en relación con la cognición incorporada. El sistema motor de una persona(que controla el movimiento del cuerpo) se activa cuando (1) observan objetos manipulables, (2) procesan los verbos de acción y (3) observan los movimientos de otro individuo. [2]
La semántica incorporada es una de las dos teorías sobre la ubicación y el procesamiento de las entradas de los motores sensoriales dentro del cerebro humano. La teoría de la semántica incorporada implica la existencia de centros especializados donde el significado de una palabra está vinculado con la unidad de procesamiento sensorial motor asociada con el significado de la palabra. Por ejemplo, el concepto de patear estaría representado en las áreas sensoriales motoras que controlan las acciones de patear. [3] Como resultado, la teoría asume que los individuos deben poseer un cuerpo para entender el inglés.
Circuito neuronal
La superposición entre varias categorías semánticas con áreas sensoriales motoras sugiere que las neuronas utilizan un mecanismo común para procesar la acción, la percepción y la semántica. El principio de correlación establece que las neuronas que se activan juntas, se conectan entre sí. Además, las neuronas no están sincronizadas, se desvinculan. Cuando un individuo pronuncia una palabra, el patrón de activación de los sistemas motores articulatorios del hablante conduce a la activación de los sistemas auditivo y somatosensorial debido a los sonidos y movimientos autopercibidos.
Si el significado de una palabra se basa en las formas visuales de los objetos, el circuito de la forma de la palabra está activo junto con la actividad neuronal en la corriente visual ventral-temporal relacionada con el procesamiento de la información visual del objeto. El aprendizaje de correlación vincula los circuitos de palabras y objetos, lo que da como resultado una relación objeto-semántica incorporada.
Hubs semánticos
Un centro semántico representa un punto focal en el cerebro donde se integra toda la información semántica perteneciente a una palabra específica. Por ejemplo, el color, la forma, el tamaño, el olor y el sonido asociados con la palabra "gato" se integrarían en el mismo centro semántico. Algunas regiones candidatas para centros semánticos incluyen:
- Corteza frontal inferior : la parte anterior del área de Broca y el tejido adyacente en la corteza frontal inferior izquierda, incluidas las áreas 44, 45 y 47 de Brodmann , se activan para el procesamiento semántico y los cambios funcionales. [4]
- Corteza temporal superior : contiene el área de Wernicke que controla el área clásica del lenguaje posterior en y adyacente a la circunvolución temporal superior y el surco . Se cree que esta área es un procesador semántico sobre la base de datos de lesiones, perfusión e imágenes. [4]
- Corteza parietal inferior : se cree que angular y adyacente a la circunvolución supramarginal en la corteza parietal inferior se activa con más fuerza durante el procesamiento semántico de configuraciones espaciales y temporales transmodales.
- Corteza temporal inferior y media : un sitio de unión semántica general entre las palabras y su significado en la corteza temporal medial / inferior izquierda o bilateral. [4]
- Corteza temporal anterior: se cree que está involucrada en la demencia semántica . que es un déficit semántico severo y específico caracterizado por lesiones en ambos polos temporales. [4]
Los mecanismos de integración semántica involucran varios sitios centrales enumerados anteriormente, lo que contradice la idea de que hay un centro donde ocurre toda la integración. Sin embargo, cada hub individual cumple con el modelo amodal . En conjunto, todos los ejes proporcionan evidencia para la teoría de que hay áreas dentro del cerebro donde la información emocional, sensorial y motora converge en un área.
Especificidad de categoría semántica
Cada centro semántico potencial se activa en un grado específico de acuerdo con la categoría a la que pertenece la palabra percibida. Por ejemplo, las lesiones en cada uno de los cinco núcleos potenciales no afectan a todas las palabras. En cambio, los datos experimentales determinan que una categoría semántica sufre más que otra en lo que respecta a la palabra.
- Corteza frontal inferior izquierda y sistemas motores frontocentrales bilaterales: estas dos áreas se activan fuertemente en respuesta a palabras o frases relacionadas con la acción. Las lesiones en estas dos áreas producen deficiencias en el procesamiento de palabras relacionadas con la acción y conceptos relacionados con la acción. [5]
- Corteza temporal superior bilateral: esta zona se activa fuertemente en respuesta a palabras relacionadas con sonidos. Las lesiones en esta área producen un deterioro en el procesamiento de palabras sonoras. [5]
- Corteza parietal inferior izquierda: especialmente cerca de la circunvolución supramarginal, esta área es activada por el lenguaje espacial. Las lesiones de la corteza parietal inferior produjeron una alteración del lenguaje espacial, como las preposiciones . [5]
- Corteza temporal medial / inferior: esta área está fuertemente activada por palabras específicas de categoría animales, herramientas, nombres de personas, color y forma. Las lesiones también muestran deterioro en palabras específicas de categoría para estas categorías. [5]
- Corteza temporal anterior: esta área está asociada con el procesamiento de las diferencias entre categorías semánticas. [5]
Se cree que algunas de las diferencias de categoría se deben a los concentradores adyacentes. Por ejemplo, la especificidad de categoría es mayor cerca de la corteza olfativa piriforme e insular anterior. Aquí, las palabras de olor como "canela" conducen a una mayor activación que las palabras de control. En la corteza gustativa de la ínsula anterior y el opérculo frontal, las palabras gustativas como "azúcar" conducen a una activación más fuerte.
Hipótesis del rastro experiencial
La hipótesis del rastro experiencial establece que cada vez que un individuo interactúa con el mundo, quedan rastros de esa experiencia en particular en nuestro cerebro. [6] Se puede acceder nuevamente a estos rastros cuando una persona piensa en palabras u oraciones que le recuerdan esa experiencia. Además, estos rastros en nuestro cerebro están relacionados con la acción con la que están relacionados. [6]
Las palabras y las oraciones se convierten en esas señales que recuperan estos rastros de nuestra mente. Los investigadores han estudiado si la experiencia previa con una palabra, como su ubicación (arriba o abajo) en el espacio, afecta la forma en que las personas comprenden y luego responden a esa palabra. [7] En un experimento, los investigadores plantearon la hipótesis de que si leer una palabra de objeto también activa una ubicación que está vinculada a ese sustantivo, entonces la siguiente respuesta de acción debería ser compatible con esa asociación. [7] Descubrieron que los participantes eran más rápidos en presionar un botón más alto que otro botón cuando la palabra estaba asociada con estar "arriba" o "arriba" que cuando el botón estaba más abajo que el otro para las palabras asociadas con "arriba" y "arriba". ".
Los resultados de este estudio mostraron que los participantes respondieron más rápido cuando la ubicación de la palabra y la acción que tenían que realizar eran similares. Esto demuestra que el procesamiento del lenguaje y la acción están conectados. Esta investigación también encontró que la información de ubicación de una palabra se activa automáticamente después de ver la palabra. [7] En un estudio similar, se descubrió que los participantes respondían con la misma rapidez a las palabras que estaban asociadas con una ubicación hacia arriba o hacia abajo cuando los botones para responder a estas palabras eran horizontales, lo que significa que el efecto de traza experiencial estaba descartado. cuando la acción de respuesta no se vinculó a ninguna de las ubicaciones que se activaron. [8]
Teoría de simulación experiencial de la comprensión del lenguaje
Algunos teóricos han propuesto un enfoque de simulación experiencial de la comprensión del lenguaje. Argumentan que los rastros experienciales previos relacionados con una palabra pueden reactivarse en una etapa posterior al acceder al significado de la misma palabra. Esto se ha puesto de relieve con el ejemplo del encuentro con la palabra "avión" en una situación en la que alguien señala un avión en el cielo, lo que hace que uno mire hacia arriba. Estos rastros experienciales, por ejemplo, "mirar hacia arriba", se reactivan posteriormente al acceder al significado de la palabra "avión". Del mismo modo, otro ejemplo podría ser cuando una persona accede al significado de la palabra "caracol", también puede acceder a los rastros experienciales asociados con esta palabra, por ejemplo, "mirando hacia abajo" (probablemente hacia el suelo). [9]
Comprensión del lenguaje y sistemas motores involucrados en acción
Verbos concretos
Como resultado de la experiencia previa a determinadas palabras, varios estudios han encontrado que la acción asociada a una determinada palabra también se activa en las cortezas motoras al procesar esa misma palabra. Por ejemplo, usando imágenes de resonancia magnética funcional relacionadas con eventos (fMRI), se descubrió que la exposición a verbos de acción concretos que se refieren a acciones de la cara, el brazo o la pierna (p. Ej., Lamer, pellizcar, patear) activan regiones motoras que se estimulan cuando realizar acciones con el pie, la mano o la boca. [10]
Verbos abstractos
Sin embargo, los hallazgos no son tan claros cuando se trata de verbos abstractos. Las teorías incorporadas de la comprensión del lenguaje asumen que los conceptos abstractos, así como los concretos, se basan en el sistema sensoriomotor (Jirak et al., 2010). [11] Algunos estudios han investigado la activación de las cortezas motoras utilizando verbos abstractos y también concretos, examinando la estimulación de las cortezas motoras al comprender los verbos de acción literal (concretos) frente al uso metafórico de los mismos verbos de acción (abstracto). Uno de estos estudios utilizó fMRI para estudiar a los participantes mientras veían las acciones realizadas por la boca, la mano o el pie, y leían oraciones literales y metafóricas relacionadas con la boca, la mano o el pie. Este estudio encontró activación en la corteza premotora para la acción literal (por ejemplo, "agarrar las tijeras") pero no para el uso metafórico (por ejemplo, "agarrar la idea"). [5] Estos hallazgos sugieren que la suposición de las teorías incorporadas de que los conceptos abstractos, así como los concretos, se basan en el sistema sensoriomotor puede no ser cierta.
Sin embargo, en contraste, otras investigaciones han encontrado la activación de la corteza motora para el uso metafórico de los verbos de acción. Uno de esos estudios investigó la activación cortical durante la comprensión de oraciones literales e idiomáticas utilizando Magnetoencefalografía (MEG). Durante una tarea de lectura en silencio, a los participantes se les presentaron estímulos que incluían verbos de acción relacionados con el brazo, tanto literales como metafóricos, p. Ej., "María atrapó el pez" versus "María atrapó el sol", y también verbos de acción literal y metafórico relacionados con las piernas, p. Ej. “Pablo se subió al sillón” versus “Pablo se subió al carro”. Este estudio encontró que el procesamiento de verbos abstractos (modismos en este caso) activaba las regiones motoras del cerebro, activando la actividad fronto-temporal anterior muy temprano en comparación con los verbos literales. [4]
Semántica incorporada usando fMRI para palabras concretas y abstractas
Hauk y sus colegas encontraron que la lectura de palabras asociadas con acciones de pies, manos o boca (ejemplos: patear, picar, lamer) activadas por áreas motoras adyacentes o superpuestas con áreas activadas al realizar acciones con la mano, el pie o la boca. [10] Además, el neurolingüista Tettmanti y sus colegas encontraron que escuchar oraciones relacionadas con la acción activaba la corteza premotora de una manera somatotópica . [3] Ejemplo: las oraciones de piernas mostraron actividad premotora de dorsal a oraciones de mano dorsal a oraciones de boca.
Aziz-Zadeh y sus colegas localizaron las regiones premotoras del pie, la mano y la boca de interés en cada sujeto haciendo que los sujetos observaran las acciones asociadas con cada efector y leyeran frases asociadas con el pie, la mano y la boca. En cada tema, las regiones más activadas para ver una acción del pie también fueron más activas para el lenguaje relacionado con las acciones del pie. Lo mismo ocurrió con la mano y la boca. Rizzolatti y sus colegas han sugerido que el plan de acción (manipular, alcanzar) es más importante que el efector real involucrado. [5]
Otros estudios han investigado la activación del sistema motor durante la comprensión de oraciones concretas y abstractas. Utilizando la estimulación magnética transcraneal (TMS) y un paradigma conductual, un estudio investigó si escuchar oraciones relacionadas con la acción activaba la actividad dentro de las cortezas motoras. Esto se investigó utilizando Potenciales Evocados Motores (MEP) del TMS que se registraron de los músculos de la mano al estimular el área motora de la mano, y de los músculos del pie y la pierna al estimular el área motora del pie. A los participantes se les presentaron oraciones relacionadas con acciones de manos o pies. Como control, los participantes escucharon oraciones con contenido abstracto. El estudio encontró que, de hecho, hubo activación de las cortezas motoras al escuchar oraciones que expresan acciones de pie / pierna y mano / brazo. Esta activación se refería específicamente a las áreas del sistema motor "donde el efector involucrado en la oración procesada está representado motormente" (págs. 360). Específicamente, los resultados mostraron que escuchar oraciones relacionadas con la acción de la mano provocó una disminución de la amplitud MEP registrada de los músculos de la mano y escuchar oraciones relacionadas con la acción del pie provocó una disminución de la amplitud MEP registrada desde el músculo del pie. [12]
Semántica incorporada en BA44
Aziz-Zadeh descubrió que aunque tanto la observación de acciones como la lectura de frases sobre acciones causaron actividad en las regiones premotora y prefrontal en las cercanías del área de Broca, las regiones activadas en gran parte no se superpusieron. Las activaciones para leer frases fueron anteriores y mediales a las activaciones para la observación de acciones. [5]
La investigación de Aziz-Zadeh contradice la de Hamzei, quien enfatizó la superposición de las activaciones de observación del lenguaje y la acción en la circunvolución frontal inferior. Sin embargo, lo más probable es que la diferencia en los resultados se deba a la diferencia en las tareas lingüísticas. Hamzei utilizó una tarea de generación de verbos que provocó una activación generalizada en la circunvolución frontal inferior y la corteza premotora. La tarea de observación de la acción condujo a una pequeña área de activación dentro del área de activación más grande. Por lo tanto, Hamzei notó la superposición entre áreas. Aziz-Zadeh utilizó una tarea de activación frontal menos extensa que permitió distinguir claramente las áreas activadas por lectura y por observación de acción. [5]
Efecto de compatibilidad acción-oración (ACE)
Ver también: La hipótesis bidireccional del lenguaje y la acción
El procesamiento de la oración puede facilitar la activación de los sistemas motores en función de las acciones a las que se refiere la oración. En un estudio, los investigadores pidieron a los participantes que emitieran juicios sobre si una oración era sensata o no. Por ejemplo, "Le entregaste a Courtney el cuaderno" versus "Courtney te entregó el cuaderno". Pidieron a los participantes en una condición que presionen un botón más lejos de su cuerpo si la oración era lógica y un botón cerca de su cuerpo cuando no lo era. Los resultados de este estudio demostraron que los participantes eran más rápidos en presionar el botón "la oración es lógica" cuando la acción en la oración coincidía con la acción requerida por ellos para presionar el botón correcto. [13] Esto significa que si la oración decía "le entregaste a Courtney el cuaderno", los participantes fueron más rápidos en presionar el botón que estaba más lejos de ellos cuando este botón significaba que la oración era lógica. El movimiento representado en estas oraciones afectó la cantidad de tiempo requerido para comprender las oraciones que describían el movimiento en la misma dirección. Se ha demostrado que este efecto se aplica tanto a oraciones que describen acciones concretas (poner un libro en un estante) como a acciones más abstractas (le contó la historia al policía). [14]
Otros estudios han intentado comprender el fenómeno ACE examinando la modulación de la resonancia motora durante la comprensión del lenguaje. En un estudio se pidió a los participantes que leyeran oraciones que contenían un marco de entre una y tres palabras. Los participantes tuvieron que girar una perilla, en una dirección durante la mitad del experimento y en la otra dirección para la otra mitad. Cada 5 ° de rotación inducía la presentación de un nuevo cuadro. Cada una de las frases describe acciones que implican rotación manual. En estos, la dirección de rotación coincidiría o no con la dirección de rotación implícita en la oración. Estudios anteriores, como el de Glenberg y Kaschak (2002), examinaron la resonancia motora en las respuestas a oraciones presuntamente dadas después de que se leyó la oración. Por el contrario, los resultados de este estudio revelaron que la resonancia motora se había disipado antes del final de la oración, y que la resonancia motora se producía en el verbo. Este estudio hizo uso de preguntas de comprensión en lugar de oraciones de sensibilidad. Los investigadores han argumentado que esto creó una situación de lectura más naturalista, por lo que se podría argumentar que los resultados de este estudio se consideran más adecuados porque se refieren a un lenguaje más naturalista. En general, los investigadores han concluido que la resonancia motora es bastante inmediata y de corta duración y que la duración del efecto se ve modificada por el contexto lingüístico. [15]
También se ha presentado evidencia neurofisiológica para probar una ECA. Esta investigación utilizó un paradigma conductual y un potencial relacionado con eventos (ERP) para registrar la actividad cerebral, lo que permitió a los investigadores explorar los marcadores neuronales del cerebro del paradigma ACE en el procesamiento semántico y las respuestas motoras. ERP fue particularmente beneficioso para ayudar a los investigadores a investigar la hipótesis bidireccional de la comprensión de acciones y oraciones , que propone que el procesamiento del lenguaje facilita el movimiento y el movimiento también facilita la comprensión del lenguaje. En el estudio, los participantes escucharon frases que describían una acción que implicaba una mano abierta, una mano cerrada o ninguna acción manual. Luego se les pidió que presionasen un botón para indicar su comprensión de la oración. A cada participante se le asignó una forma de mano, ya sea cerrada o abierta, que se requería para activar el botón. Además de dos grupos (formas de mano cerradas o abiertas), había tres categorías diferentes relacionadas con la forma de la mano: compatible, incompatible y neutral. Los resultados de comportamiento del estudio mostraron que los participantes respondieron más rápido cuando la forma de la mano requerida para presionar el botón de respuesta era compatible con la forma de la mano inferida por la oración. Los resultados de ERP proporcionaron evidencia para apoyar la hipótesis bidireccional, mostrando que los marcadores corticales de los procesos motores se vieron afectados por el significado de las oraciones, por lo que proporcionaron evidencia de un efecto semántica-motora. Los resultados de ERP también demostraron un efecto de motor a semántica ya que los marcadores cerebrales de comprensión fueron modificados por efectos motores. [dieciséis]
El Efecto Acción-Compatibilidad también establece que los recursos cerebrales utilizados para planificar y realizar acciones también se utilizan en la comprensión del lenguaje; por lo tanto, si una acción implícita en una oración es diferente de la respuesta sugerida, existe una interferencia dentro de estos recursos cerebrales. [14]
Activación de Word
Otros estudios han demostrado que leer el nombre de un objeto interfiere con la forma en que una persona planea agarrar ese objeto. [17] También se encontró que palabras similares pueden generar acciones similares. Tocar el piano y usar una máquina de escribir utilizan acciones motoras similares; estas palabras se preparan mutuamente en una tarea de decisión de palabras. [17] Estos estudios han concluido que la activación de las decisiones motoras se produce automáticamente cuando se exponen a palabras relacionadas con la acción. [17]
Lenguaje metafórico
Aziz-Zadeh investigó la organización somatotópica congruente de representaciones semánticas para oraciones metafóricas en ambos hemisferios. Aziz-Zadeh presentó a los sujetos estímulos como “patear el balde” o “morder la bala” para leer y luego presentó a los sujetos videos de acciones de manos, pies y boca. No se pudo encontrar evidencia en ninguno de los hemisferios para apoyar esta teoría. [5]
Sin embargo, las metáforas utilizadas en el experimento son comunes en el idioma inglés. Por lo tanto, el argumento es que si una metáfora se escucha con suficiente frecuencia, no activará la misma red de procesamiento que hizo inicialmente.
Las acciones enfatizan el significado
Muchos estudios han demostrado cómo los movimientos corporales y el habla se pueden combinar para enfatizar el significado (a menudo llamado gestos ). Una persona puede observar las acciones de otra para ayudarla a comprender lo que esa persona está diciendo. [18] Por ejemplo, si una persona señala repetidamente, ayuda al oyente a comprender que la dirección que se infiere es muy importante; mientras que si fuera un punto casual en la dirección general, la ubicación del objeto puede no ser tan necesaria para comprender lo que dice el hablante. Otro ejemplo puede ser el pisotón con el pie. Esto puede ayudar al oyente a comprender el enojo y la frustración que transmite el hablante. [ cita requerida ]
Trascendencia
Muchos estudios han demostrado que la comprensión de las palabras y oraciones por parte de las personas puede influir en sus movimientos y acciones, así como en lo contrario: las acciones de las personas pueden influir en la rapidez con que pueden comprender una palabra u oración. [19] Este conocimiento es importante por muchas razones. Un estudio analizó el impacto de la cognición incorporada en un salón de clases para facilitar y mejorar el aprendizaje de idiomas. Para un niño, existe una diferencia entre el aprendizaje del lenguaje oral y la lectura. En el aprendizaje del lenguaje oral, el mapeo entre un símbolo (palabra) y el objeto es común, a menudo provocado por gestos hacia el objeto. [20] Sin embargo, cuando un niño está aprendiendo a leer, se enfoca en las combinaciones de letras y sonidos y en la pronunciación correcta de las palabras. Por lo general, el objeto al que se refieren las palabras no se conecta de inmediato con la palabra, por lo que no se establece de inmediato una asociación entre la palabra y el objeto. [20] Los investigadores de este estudio sugieren la intervención Moved by Reading , que consta de dos partes: la etapa de manipulación física y la etapa de manipulación imaginada. [20] En la manipulación física, el niño lee una oración y luego se le indica que actúe con los juguetes disponibles. [20] Esto obliga al niño a conectar palabras con objetos y sus acciones. En la etapa de manipulación imaginada, el niño lee la oración y luego se le pide que imagine cómo interactuaría con los juguetes para representar la oración. [20] Estudiaron esto más a fondo y descubrieron que es posible que estos niños aún se beneficien de los efectos de la cognición incorporada cuando manipulan objetos en una pantalla de computadora. [20] Este software cognitivo incorporado puede ayudar a los niños a facilitar la comprensión del lenguaje. [ cita requerida ] Otras implicaciones para la instrucción del lenguaje que mejorarían la adquisición y la retención son ofrecer actividades que inviten a los estudiantes a usar activamente su cuerpo en el proceso, o al menos observar al maestro hacerlo, activando así sus neuronas espejo. [19]
Ver también
- Lenguaje bilingüe incorporado
Referencias
- ^ Cowart, M. (8 de julio de 2005). Cognición encarnada. http://www.iep.utm.edu/embodcog/
- ^ Mahon, B. Z y A. Caramazza. (2008). Una mirada crítica a la hipótesis de la cognición encarnada y una nueva propuesta. Journal of Physiology - París, 102 págs. 59–70.
- ^ a b Rueschemeyer, S. et al. (2010). Efectos de las acciones motoras intencionales en el procesamiento del lenguaje incorporado. Psicología experimental, 57 (4), págs. 260−66. doi : 10.1027 / 1618-3169 / a000031
- ↑ a b c d e Boulenger, V., Shtyrov, Y. y Pulvermüller, F. (2012). ¿Cuándo captas la idea? Evidencia MEG para la comprensión idiomática instantánea. Neuroimagen, 59 (4), 3502-3513.
- ↑ a b c d e f g h i j Aziz-Zadeh, L., Wilson, SM, Rizzolatti, G. y Iacoboni, M. (2006). Representaciones incorporadas congruentes para acciones presentadas visualmente y frases lingüísticas que describen acciones. Biología actual, 16 (18), 1818-1823.
- ^ a b Zwaan RA & Pecher, D. La base de la cognición: el papel de la percepción y la acción en la memoria, el lenguaje y el pensamiento. Cambridge, Reino Unido: Cambridge University Press.
- ^ a b c Lachmair, M. et al. (2011). Raíz versus techo: activación automática de la información de ubicación durante el procesamiento de texto. Psychonomic Bulletin & Review, 18 págs. 1180–88. doi : 10.3758 / s13423-001-0158-x
- ^ Zwann, RA (2002). Los entendidos del lenguaje representan mentalmente la forma de los objetos . Ciencias psicológicas, 13 (2), págs. 168–71
- ^ Zwaan, RA y Madden, CJ (2005). Comprensión incorporada de oraciones. Fundamentación de la cognición: el papel de la percepción y la acción en la memoria, el lenguaje y el pensamiento, 224-245.
- ↑ a b Hauk, O., Johnsrude, I. y Pulvermüller, F. (2004). Representación somatotópica de palabras de acción en la corteza motora y premotora humana. Neuron, 41 (2), 301-307.
- ^ Jirak, D., Menz, MM, Buccino, G., Borghi, AM y Binkofski, F. (2010). Comprensión del lenguaje: una breve historia sobre la encarnación. Conciencia y cognición, 19 (3), 711-720.
- ^ Buccino, G., Riggio, L., Melli, G., Binkofski, F., Gallese, V. y Rizzolatti, G. (2005). Escuchar oraciones relacionadas con acciones modula la actividad del sistema motor: un estudio combinado de TMS y de comportamiento. Investigación cognitiva del cerebro, 24 (3), 355-363.
- ^ Havas, DA y col. (2007). Simulación de emociones durante la comprensión del lenguaje. Psychonomic Bulletin & Review, 14 (3), págs. 436-41.
- ^ a b Glenberg, A. M y M. Kaschak. (2002). Basar el lenguaje en acción. Psychnomic Bulletin & Review, 9 (3), págs. 558–65.
- ^ Zwaan, RA y Taylor, LJ (2006). Ver, actuar, comprender: resonancia motora en la comprensión del lenguaje . Revista de Psicología Experimental: General, 135 (1), 1.
- ^ Aravena, P., Hurtado, E., Riveros, R., Cardona, JF, Manes, F. y Ibáñez, A. (2010). Aplaudir con las manos cerradas: firma neuronal de los efectos de compatibilidad acción-oración. PLoS One, 5 (7), e11751.
- ↑ a b c Fischer, M. y Zwann, R. (2008). Lenguaje incorporado: una revisión del papel del sistema motor en la comprensión del lenguaje. The Quarterly Journal of Experimental Psychology, 61 (6), 825–50. doi : 10.1080 / 17470210701623605
- ^ Gibbs, RW (2006). Lenguaje y comunicación. Embodiement and Cognitive Science, págs. 158-207.
- ↑ a b Paradowski MB (2014). "Storytelling en la enseñanza de idiomas - reevaluación del peso de la modalidad cinestésica para la pedagogía compatible con el cerebro" . Cuentacuentos . 1 (2): 13–52.
- ^ a b c d e f Glenberg, A. M y A. Goldberg. (2011). Mejorar la comprensión lectora temprana utilizando CAI incorporado. Ciencias de la instrucción, 39 págs. 27–39. doi : 10.1007 / s11251-009-9096-7