El reconocimiento de emociones es el proceso de identificación de las emociones humanas . Las personas varían mucho en su precisión para reconocer las emociones de los demás. El uso de la tecnología para ayudar a las personas con el reconocimiento de emociones es un área de investigación relativamente incipiente. Generalmente, la tecnología funciona mejor si usa múltiples modalidades en contexto. Hasta la fecha, la mayor parte del trabajo se ha realizado para automatizar el reconocimiento de expresiones faciales de video, expresiones habladas de audio, expresiones escritas de texto y fisiología medida por dispositivos portátiles.
Humano
Los seres humanos muestran una gran variabilidad en sus habilidades para reconocer las emociones. Un punto clave a tener en cuenta al aprender sobre el reconocimiento automático de emociones es que existen varias fuentes de "verdad fundamental" o verdad sobre cuál es la emoción real. Supongamos que estamos tratando de reconocer las emociones de Alex. Una fuente es "¿qué diría la mayoría de la gente que está sintiendo Alex?" En este caso, la "verdad" puede no corresponder a lo que Alex siente, pero puede corresponder a lo que la mayoría de la gente diría que parece que Alex siente. Por ejemplo, Alex puede sentirse triste, pero pone una gran sonrisa y luego la mayoría de la gente dice que se ve feliz. Si un método automatizado logra los mismos resultados que un grupo de observadores, puede considerarse exacto, incluso si en realidad no mide lo que Alex realmente siente. Otra fuente de "verdad" es preguntarle a Alex qué siente realmente. Esto funciona si Alex tiene un buen sentido de su estado interno, quiere decirte cuál es y es capaz de expresarlo con precisión en palabras o en un número. Sin embargo, algunas personas son alexitímicas y no tienen un buen sentido de sus sentimientos internos, o no son capaces de comunicarlos con precisión con palabras y números. En general, llegar a la verdad de qué emoción está realmente presente puede requerir algo de trabajo, puede variar según los criterios que se seleccionen y, por lo general, implicará mantener cierto nivel de incertidumbre.
Automático
Se han realizado décadas de investigación científica desarrollando y evaluando métodos para el reconocimiento automático de emociones. En la actualidad existe una extensa literatura que propone y evalúa cientos de diferentes tipos de métodos, aprovechando técnicas de múltiples áreas, como el procesamiento de señales , el aprendizaje automático , la visión por computadora y el procesamiento del habla . Se pueden emplear diferentes metodologías y técnicas para interpretar la emoción, como las redes bayesianas . [1] , modelos de mezcla gaussiana [2] y modelos ocultos de Markov [3] y redes neuronales profundas . [4]
Enfoques
La precisión del reconocimiento de emociones generalmente mejora cuando combina el análisis de expresiones humanas de formas multimodales como textos, fisiología, audio o video. [5] Se detectan diferentes tipos de emociones mediante la integración de información de expresiones faciales , movimientos y gestos corporales y habla. [6] Se dice que la tecnología contribuye al surgimiento de la llamada Internet emocional o emotiva . [7]
Los enfoques existentes en el reconocimiento de emociones para clasificar ciertos tipos de emociones se pueden clasificar generalmente en tres categorías principales: técnicas basadas en el conocimiento, métodos estadísticos y enfoques híbridos. [8]
Técnicas basadas en el conocimiento
Las técnicas basadas en el conocimiento (a veces denominadas técnicas basadas en el léxico ) utilizan el conocimiento del dominio y las características semánticas y sintácticas del lenguaje para detectar ciertos tipos de emociones . [ cita requerida ] En este enfoque, es común utilizar recursos basados en el conocimiento durante el proceso de clasificación de emociones como WordNet , SenticNet, [9] ConceptNet y EmotiNet, [10] por nombrar algunos. [11] Una de las ventajas de este enfoque es la accesibilidad y la economía provocadas por la gran disponibilidad de tales recursos basados en el conocimiento. [8] Una limitación de esta técnica, por otro lado, es su incapacidad para manejar los matices de los conceptos y las reglas lingüísticas complejas. [8]
Las técnicas basadas en el conocimiento se pueden clasificar principalmente en dos categorías: enfoques basados en diccionarios y basados en corpus. [ cita requerida ] Los enfoques basados en diccionarios encuentran palabras de semillas de opinión o emoción en un diccionario y buscan sus sinónimos y antónimos para expandir la lista inicial de opiniones o emociones . [12] Los enfoques basados en corpus, por otro lado, comienzan con una lista inicial de palabras de opinión o emoción y amplían la base de datos encontrando otras palabras con características específicas del contexto en un corpus grande . [12] Si bien los enfoques basados en corpus tienen en cuenta el contexto, su desempeño aún varía en diferentes dominios, ya que una palabra en un dominio puede tener una orientación diferente en otro dominio. [13]
métodos de estadística
Los métodos estadísticos comúnmente implican el uso de diferentes algoritmos de aprendizaje automático supervisados en los que se introduce un gran conjunto de datos anotados en los algoritmos para que el sistema aprenda y prediga los tipos de emoción apropiados . [8] Los algoritmos de aprendizaje automático generalmente brindan una precisión de clasificación más razonable en comparación con otros enfoques, pero uno de los desafíos para lograr buenos resultados en el proceso de clasificación es la necesidad de tener un conjunto de entrenamiento suficientemente grande. [8]
Algunos de los algoritmos de aprendizaje automático más utilizados incluyen Support Vector Machines (SVM) , Naive Bayes y Maximum Entropy . [14] El aprendizaje profundo , que pertenece a la familia no supervisada del aprendizaje automático , también se emplea ampliamente en el reconocimiento de emociones. [15] [16] [17] Los algoritmos de aprendizaje profundo bien conocidos incluyen diferentes arquitecturas de redes neuronales artificiales (ANN) , como la red neuronal convolucional (CNN) , la memoria a corto plazo a largo plazo (LSTM) y la máquina de aprendizaje extremo (ELM). . [14] La popularidad de los enfoques de aprendizaje profundo en el dominio del reconocimiento de emociones puede atribuirse principalmente a su éxito en aplicaciones relacionadas como la visión por computadora , el reconocimiento de voz y el procesamiento del lenguaje natural (PNL) . [14]
Enfoques híbridos
Los enfoques híbridos en el reconocimiento de emociones son esencialmente una combinación de técnicas basadas en el conocimiento y métodos estadísticos, que explotan características complementarias de ambas técnicas. [8] Algunos de los trabajos que han aplicado un conjunto de elementos lingüísticos y métodos estadísticos impulsados por el conocimiento incluyen la computación sentic e iFeel, los cuales han adoptado el recurso basado en el conocimiento a nivel de concepto SenticNet. [18] [19] El papel de tales recursos basados en el conocimiento en la implementación de enfoques híbridos es muy importante en el proceso de clasificación de emociones . [11] Dado que las técnicas híbridas se benefician de los beneficios que ofrecen los enfoques estadísticos y basados en el conocimiento, tienden a tener un mejor rendimiento de clasificación en lugar de emplear métodos estadísticos o basados en el conocimiento de forma independiente. [ cita requerida ] Sin embargo, una desventaja de usar técnicas híbridas es la complejidad computacional durante el proceso de clasificación. [11]
Conjuntos de datos
Los datos son una parte integral de los enfoques existentes en el reconocimiento de emociones y, en la mayoría de los casos, es un desafío obtener datos anotados que son necesarios para entrenar algoritmos de aprendizaje automático . [12] Para la tarea de clasificar diferentes tipos de emociones de fuentes multimodales en forma de textos, audio, videos o señales fisiológicas, se encuentran disponibles los siguientes conjuntos de datos:
- HUMAINE: proporciona clips naturales con palabras de emoción y etiquetas de contexto en múltiples modalidades [20]
- Base de datos de Belfast: proporciona clips con una amplia gama de emociones de programas de televisión y grabaciones de entrevistas [21]
- SEMAINE: proporciona grabaciones audiovisuales entre una persona y un agente virtual y contiene anotaciones emocionales como enojo, alegría, miedo, disgusto, tristeza, desprecio y diversión [22]
- IEMOCAP: proporciona grabaciones de sesiones diádicas entre actores y contiene anotaciones emocionales como felicidad, ira, tristeza, frustración y estado neutral [23]
- eNTERFACE: proporciona grabaciones audiovisuales de sujetos de siete nacionalidades y contiene anotaciones emocionales como felicidad, enfado, tristeza, sorpresa, disgusto y miedo [24]
- DEAP: proporciona electroencefalografía ( EEG ), electrocardiografía ( ECG ) y grabaciones de video faciales, así como anotaciones de emociones en términos de valencia , excitación y predominio de personas que ven clips de películas [25]
- DREAMER: proporciona grabaciones de electroencefalografía ( EEG ) y electrocardiografía ( ECG ), así como anotaciones de emociones en términos de valencia , excitación y predominio de personas que ven clips de películas [26]
- MELD: es un conjunto de datos conversacionales de múltiples partes donde cada enunciado está etiquetado con emoción y sentimiento. MELD [27] proporciona conversaciones en formato de video y, por lo tanto, es adecuado para el reconocimiento de emociones multimodal y el análisis de sentimientos . MELD es útil para análisis de sentimientos multimodal y reconocimiento de emociones, sistemas de diálogo y reconocimiento de emociones en conversaciones . [28]
- MuSe: proporciona grabaciones audiovisuales de interacciones naturales entre una persona y un objeto. [29] Tiene anotaciones de emociones discretas y continuas en términos de valencia, excitación y confiabilidad, así como temas de habla útiles para el análisis de sentimientos multimodal y el reconocimiento de emociones.
- UIT-VSMEC: es un corpus de emociones de redes sociales vietnamita estándar (UIT-VSMEC) con aproximadamente 6,927 oraciones anotadas por humanos con seis etiquetas de emoción, lo que contribuye a la investigación del reconocimiento de emociones en vietnamita, que es un lenguaje de bajos recursos en el procesamiento del lenguaje natural (PNL) . [30]
- BED: proporciona grabaciones de electroencefalografía ( EEG ), así como anotaciones de emociones en términos de valencia y excitación de las personas que miran imágenes. También incluye grabaciones de electroencefalografía ( EEG ) de personas expuestas a diversos estímulos ( SSVEP , reposo con los ojos cerrados, reposo con los ojos abiertos, tareas cognitivas) para la tarea de biometría basada en EEG . [31]
Aplicaciones
El reconocimiento de emociones se utiliza en la sociedad por diversas razones. Affectiva , que surgió del MIT , proporciona un software de inteligencia artificial que lo hace más eficiente para realizar tareas que las personas anteriormente realizaban manualmente, principalmente para recopilar información sobre expresiones faciales y vocales relacionadas con contextos específicos en los que los espectadores han dado su consentimiento para compartir esta información. Por ejemplo, en lugar de completar una encuesta extensa sobre cómo se siente en cada momento al ver un video educativo o un anuncio, puede dar su consentimiento para que una cámara mire su rostro y escuche lo que dice, y anote durante qué partes de la experiencia mostrar expresiones como aburrimiento, interés, confusión o sonrisas. (Tenga en cuenta que esto no implica que esté leyendo sus sentimientos más íntimos, solo lee lo que expresa externamente). Otros usos de Affectiva incluyen ayudar a los niños con autismo, ayudar a las personas ciegas a leer expresiones faciales, ayudar a los robots a interactuar de manera más inteligente con las personas. y monitorear las señales de atención mientras se conduce en un esfuerzo por mejorar la seguridad del conductor. [32]
Una patente presentada por Snapchat en 2015 describe un método para extraer datos sobre multitudes en eventos públicos mediante la realización de un reconocimiento algorítmico de emociones en las selfies geoetiquetadas de los usuarios . [33]
Emotient fue una empresa de nueva creación que aplicó el reconocimiento de emociones a la lectura de ceños fruncidos, sonrisas y otras expresiones en los rostros, a saber, inteligencia artificial para predecir "actitudes y acciones basadas en expresiones faciales". [34] Apple compró Emotient en 2016 y utiliza tecnología de reconocimiento de emociones para mejorar la inteligencia emocional de sus productos. [34]
nViso proporciona reconocimiento de emociones en tiempo real para aplicaciones web y móviles a través de una API en tiempo real . [35] Visage Technologies AB ofrece estimación de emociones como parte de su Visage SDK para investigación científica y de marketing y fines similares. [36]
Eyeris es una empresa de reconocimiento de emociones que trabaja con fabricantes de sistemas integrados, incluidos fabricantes de automóviles y empresas de robótica social, en la integración de su software de reconocimiento de emociones y análisis facial; así como con los creadores de contenido de video para ayudarlos a medir la efectividad percibida de su creatividad de video de formato corto y largo. [37] [38]
También existen muchos productos para agregar información de las emociones comunicadas en línea, incluso mediante la pulsación del botón "me gusta" y mediante el recuento de frases positivas y negativas en el texto, y el reconocimiento de afectos se utiliza cada vez más en algunos tipos de juegos y en la realidad virtual, tanto con fines educativos como para dar a los jugadores un control más natural sobre sus avatares sociales. [ cita requerida ]
Subcampos del reconocimiento de emociones
El reconocimiento de emociones probablemente obtenga el mejor resultado si se aplican múltiples modalidades combinando diferentes objetos, incluidos texto (conversación), audio, video y fisiología para detectar emociones.
Reconocimiento de emociones en texto
Los datos de texto son un objeto de investigación favorable para el reconocimiento de emociones cuando son gratuitos y están disponibles en todas partes de la vida humana. En comparación con otros tipos de datos, el almacenamiento de datos de texto es más liviano y fácil de comprimir para obtener el mejor rendimiento debido a la frecuente repetición de palabras y caracteres en los idiomas. Las emociones se pueden extraer de dos formas de texto esenciales: textos escritos y conversaciones (diálogos). [39] Para los textos escritos, muchos académicos se enfocan en trabajar con el nivel de la oración para extraer "palabras / frases" que representan emociones. [40] [41]
Reconocimiento de emociones en audio
A diferencia del reconocimiento de emociones en el texto, las señales vocales se utilizan para el reconocimiento para extraer emociones del audio . [42]
Reconocimiento de emociones en video
Los datos de vídeo son una combinación de datos de audio, datos de imágenes y, a veces, textos (en el caso de los subtítulos [43] ).
Reconocimiento de emociones en la conversación.
El reconocimiento de emociones en la conversación (ERC) extrae opiniones entre los participantes a partir de datos de conversación masivos en plataformas sociales , como Facebook , Twitter , YouTube y otras. [28] ERC puede tomar datos de entrada como texto, audio, video o una forma combinada para detectar varias emociones como miedo, lujuria, dolor y placer.
Ver también
- Computación afectiva
- Percepción de la cara
- Sistema de reconocimiento facial
- Análisis de los sentimientos
- Precisión interpersonal
Referencias
- ^ Miyakoshi, Yoshihiro y Shohei Kato. "Detección de la emoción facial considerando la oclusión parcial de la cara mediante la red Baysian" . Computadoras e informática (2011): 96–101.
- ^ Hari Krishna Vydana, P. Phani Kumar, K. Sri Rama Krishna y Anil Kumar Vuppala. "Reconocimiento de emociones mejorado usando GMM-UBMs" . 2015 Conferencia internacional sobre procesamiento de señales y sistemas de ingeniería de comunicaciones
- ^ B. Schuller, G. Rigoll M. Lang. "Reconocimiento de emociones de voz basado en el modelo de Markov oculto" . ICME '03. Actas. 2003 Conferencia Internacional de Multimedia y Expo, 2003.
- ^ Singh, Premjeet; Saha, Goutam; Sahidullah, Maryland (2021). "Deformación de frecuencia no lineal mediante transformación Q constante para el reconocimiento de emociones de voz". 2021 Congreso Internacional de Comunicación e Informática por Computadora (ICCCI) . págs. 1–4. arXiv : 2102.04029 . doi : 10.1109 / ICCCI50826.2021.9402569 . ISBN 978-1-7281-5875-4.
- ^ Poria, Soujanya; Cambria, Erik; Bajpai, Rajiv; Hussain, Amir (septiembre de 2017). "Una revisión de la computación afectiva: del análisis unimodal a la fusión multimodal" . Fusión de información . 37 : 98-125. doi : 10.1016 / j.inffus.2017.02.003 . hdl : 1893/25490 .
- ^ Caridakis, George; Castellano, Ginevra; Kessous, Loic; Raouzaiou, Amaryllis; Malatesta, Lori; Asteriadis, Stelios; Karpouzis, Kostas (19 de septiembre de 2007). Reconocimiento de emociones multimodal a partir de rostros expresivos, gestos corporales y habla . IFIP la Federación Internacional para el Procesamiento de la Información . 247 . págs. 375–388. doi : 10.1007 / 978-0-387-74161-1_41 . ISBN 978-0-387-74160-4.
- ^ Precio. "Aprovechando la Internet emocional" . TechCrunch . Consultado el 12 de diciembre de 2018 .
- ^ a b c d e f Cambria, Erik (marzo de 2016). "Análisis de sentimiento y computación afectiva". Sistemas inteligentes IEEE . 31 (2): 102–107. doi : 10.1109 / MIS.2016.31 . S2CID 18580557 .
- ^ Cambria, Erik; Poria, Soujanya; Bajpai, Rajiv; Schuller, Bjoern (2016). "SenticNet 4: un recurso semántico para el análisis de sentimientos basado en primitivas conceptuales" . Actas de COLING 2016, la 26ª Conferencia Internacional sobre Lingüística Computacional: Artículos técnicos : 2666–2677.
- ^ Balahur, Alexandra; Hermida, JesúS M; Montoyo, AndréS (1 de noviembre de 2012). "Detectar expresiones implícitas de emoción en el texto: un análisis comparativo" . Sistemas de apoyo a la toma de decisiones . 53 (4): 742–753. doi : 10.1016 / j.dss.2012.05.024 . ISSN 0167-9236 .
- ^ a b c Medhat, Walaa; Hassan, Ahmed; Korashy, Hoda (diciembre de 2014). "Algoritmos y aplicaciones de análisis de sentimiento: una encuesta" . Revista de ingeniería de Ain Shams . 5 (4): 1093-1113. doi : 10.1016 / j.asej.2014.04.011 .
- ^ a b c Madhoushi, Zohreh; Hamdan, Abdul Razak; Zainudin, Suhaila (2015). "Técnicas de análisis de sentimiento en trabajos recientes". Conferencia de Ciencia e Información de 2015 (SAI) . págs. 288-291. doi : 10.1109 / SAI.2015.7237157 . ISBN 978-1-4799-8547-0. S2CID 14821209 .
- ^ Hematia, Fatima; Sohrabi, Mohammad Karim (18 de diciembre de 2017). "Una encuesta sobre técnicas de clasificación para la minería de opiniones y el análisis de sentimientos". Revisión de inteligencia artificial . 52 (3): 1495-1545. doi : 10.1007 / s10462-017-9599-6 . S2CID 11741285 .
- ^ a b c Sun, Shiliang; Luo, Chen; Chen, Junyu (julio de 2017). "Una revisión de las técnicas de procesamiento del lenguaje natural para los sistemas de minería de opiniones". Fusión de información . 36 : 10-25. doi : 10.1016 / j.inffus.2016.10.004 .
- ^ Majumder, Navonil; Poria, Soujanya; Gelbukh, Alexander; Cambria, Erik (marzo de 2017). "Modelado de documentos basado en aprendizaje profundo para la detección de personalidad a partir de texto". Sistemas inteligentes IEEE . 32 (2): 74–79. doi : 10.1109 / MIS.2017.23 . S2CID 206468984 .
- ^ Mahendhiran, PD; Kannimuthu, S. (mayo de 2018). "Técnicas de aprendizaje profundo para la clasificación de la polaridad en el análisis de sentimiento multimodal". Revista internacional de tecnología de la información y toma de decisiones . 17 (3): 883–910. doi : 10.1142 / S0219622018500128 .
- ^ Yu, Hongliang; Gui, Liangke; Madaio, Michael; Ogan, Amy; Cassell, Justine; Morency, Louis-Philippe (23 de octubre de 2017). Modelo de Atención Temporalmente Selectiva para el Reconocimiento del Estado Social y Afectivo en Contenido Multimedia . MM '17. ACM. págs. 1743-1751. doi : 10.1145 / 3123266.3123413 . ISBN 9781450349062. S2CID 3148578 .
- ^ Cambria, Erik; Hussain, Amir (2015). Computación semántica: un marco basado en el sentido común para el análisis de sentimientos a nivel de concepto . Springer Publishing Company, Incorporated. ISBN 978-3319236537.
- ^ Araújo, Matheus; Gonçalves, Pollyanna; Cha, Meeyoung ; Benevenuto, Fabrício (7 de abril de 2014). iFeel: un sistema que compara y combina métodos de análisis de sentimientos . Compañero de WWW '14. ACM. págs. 75–78. doi : 10.1145 / 2567948.2577013 . ISBN 9781450327459. S2CID 11018367 .
- ^ Paolo Petta; Catherine Pelachaud ; Roddy Cowie, eds. (2011). Sistemas orientados a las emociones el manual humano . Berlín: Springer. ISBN 978-3-642-15184-2.
- ^ Douglas-Cowie, Ellen; Campbell, Nick; Cowie, Roddy; Roach, Peter (1 de abril de 2003). "Discurso emocional: hacia una nueva generación de bases de datos" . Comunicación de voz . 40 (1–2): 33–60. CiteSeerX 10.1.1.128.3991 . doi : 10.1016 / S0167-6393 (02) 00070-5 . ISSN 0167-6393 .
- ^ McKeown, G .; Valstar, M .; Cowie, R .; Pantic, M .; Schroder, M. (enero de 2012). "La base de datos SEMAINE: registros multimodales anotados de conversaciones emocionalmente coloreadas entre una persona y un agente limitado" . Transacciones IEEE sobre computación afectiva . 3 (1): 5–17. doi : 10.1109 / T-AFFC.2011.20 . S2CID 2995377 .
- ^ Busso, Carlos; Bulut, Murtaza; Lee, Chi-Chun; Kazemzadeh, Abe; Cortacésped, Emily; Kim, Samuel; Chang, Jeannette N .; Lee, Sungbok; Narayanan, Shrikanth S. (5 de noviembre de 2008). "IEMOCAP: base de datos interactiva de captura de movimiento diádico emocional". Recursos lingüísticos y evaluación . 42 (4): 335–359. doi : 10.1007 / s10579-008-9076-6 . ISSN 1574-020X . S2CID 11820063 .
- ^ Martin, O .; Kotsia, I .; Macq, B .; Pitas, I. (3 de abril de 2006). La base de datos de emociones audiovisuales eNTERFACE'05 . Icdew '06. Sociedad de Informática IEEE. págs. 8–. doi : 10.1109 / ICDEW.2006.145 . ISBN 9780769525716. S2CID 16185196 .
- ^ Koelstra, Sander; Muhl, Christian; Soleymani, Mohammad; Lee, Jong-Seok; Yazdani, Ashkan; Ebrahimi, Touradj; Juego de palabras, Thierry; Nijholt, Anton; Patras, Ioannis (enero de 2012). "DEAP: una base de datos para el análisis de las emociones mediante señales fisiológicas". Transacciones IEEE sobre computación afectiva . 3 (1): 18–31. CiteSeerX 10.1.1.593.8470 . doi : 10.1109 / T-AFFC.2011.15 . ISSN 1949-3045 . S2CID 206597685 .
- ^ Katsigiannis, Stamos; Ramzan, Naeem (enero de 2018). "DREAMER: una base de datos para el reconocimiento de emociones a través de señales de EEG y ECG desde dispositivos inalámbricos de bajo costo disponibles en el mercado" (PDF) . IEEE Journal of Biomedical and Health Informatics . 22 (1): 98-107. doi : 10.1109 / JBHI.2017.2688239 . ISSN 2168-2194 . PMID 28368836 . S2CID 23477696 .
- ^ Poria, Soujanya; Hazarika, Devamanyu; Majumder, Navonil; Naik, Gautam; Cambria, Erik; Mihalcea, Rada (2019). "MELD: un conjunto de datos multimodal de múltiples partes para el reconocimiento de emociones en las conversaciones". Actas de la 57ª Reunión Anual de la Asociación de Lingüística Computacional . Stroudsburg, PA, EE.UU .: Asociación de Lingüística Computacional: 527–536. arXiv : 1810.02508 . doi : 10.18653 / v1 / p19-1050 . S2CID 52932143 .
- ↑ a b Poria, S., Majumder, N., Mihalcea, R. y Hovy, E. (2019). Reconocimiento de emociones en la conversación: desafíos de investigación, conjuntos de datos y avances recientes . Acceso IEEE, 7, 100943-100953.
- ^ Stappen, Lukas; Schuller, Björn; Después, Iulia; Cambria, Erik; Kompatsiaris, Ioannis (2020). "Resumen de MuSe 2020: análisis de sentimiento multimodal, compromiso de emoción-objetivo y detección de confiabilidad en medios de la vida real". Actas de la 28ª Conferencia Internacional ACM sobre Multimedia . Seattle, PA, EE.UU .: Asociación de Maquinaria de Computación: 4769–4770. arXiv : 2004.14858 . doi : 10.1145 / 3394171.3421901 . S2CID 222278714 .
- ^ Ho, Vong (2020). "Reconocimiento de emociones para el texto de los medios sociales vietnamitas" . 16a Conferencia Internacional de la Asociación del Pacífico de Lingüística Computacional (PACLING 2019) . Comunicaciones en Informática y Ciencias de la Información. 1215 : 319–333. arXiv : 1911.09339 . doi : 10.1007 / 978-981-15-6168-9_27 . ISBN 978-981-15-6167-2.
- ^ Arnau-González, Pablo; Katsigiannis, Stamos; Arevalillo-Herráez, Miguel; Ramzan, Naeem (febrero de 2021). "BED: un nuevo conjunto de datos para la biometría basada en EEG" . IEEE Internet of Things Journal . (Acceso anticipado ): 1. doi : 10.1109 / JIOT.2021.3061727 . ISSN 2327-4662 .
- ^ "Affectiva" .
- ^ Bushwick, Sophie. "Este video te mira hacia atrás" . Scientific American . Consultado el 27 de enero de 2020 .
- ^ a b DeMuth Jr., Chris (8 de enero de 2016). "Apple lee tu mente" . M&A diario . Buscando Alfa . Consultado el 9 de enero de 2016 .
- ^ "nViso" . nViso.ch .
- ^ "Visage Technologies" .
- ^ "¿Te sientes triste, enojado? Tu futuro auto lo sabrá" .
- ^ Varagur, Krithika (22 de marzo de 2016). "Los coches pueden advertir pronto a los conductores antes de que se vayan" . Huffington Post .
- ^ Shivhare, SN y Khethawat, S. (2012). Detección de emociones a partir de texto. preimpresión arXiv arXiv : 1205.4944
- ^ Ezhilarasi, R. y Minu, RI (2012). Reconocimiento y clasificación automática de emociones . Ingeniería de procedimientos, 38, 21-26.
- ^ Krcadinac, U., Pasquier, P., Jovanovic, J. y Devedzic, V. (2013). Synesketch: una biblioteca de código abierto para el reconocimiento de emociones basado en oraciones. Transacciones IEEE sobre computación afectiva, 4 (3), 312-325.
- ^ Schmitt, M., Ringeval, F. y Schuller, BW (septiembre de 2016). En la frontera de la acústica y la lingüística: bolsa de palabras de audio para el reconocimiento de las emociones en el habla . En Interspeech (págs. 495-499).
- ^ Dhall, A., Goecke, R., Lucey, S. y Gedeon, T. (2012). Recopilación de grandes bases de datos de expresiones faciales ricamente comentadas de películas . IEEE multimedia, (3), 34-41.