La generación de expresiones de referencia ( REG ) es la subtarea de la generación del lenguaje natural (NLG) que recibió la mayor atención de los académicos. Mientras que NLG se ocupa de la conversión de información no lingüística en lenguaje natural, REG se centra solo en la creación de expresiones de referencia (frases nominales) que identifican entidades específicas llamadas objetivos .
Esta tarea se puede dividir en dos secciones. La parte de selección de contenido determina qué conjunto de propiedades distinguen al objetivo deseado y la parte de realización lingüística define cómo estas propiedades se traducen al lenguaje natural. Se han desarrollado una variedad de algoritmos en la comunidad NLG para generar diferentes tipos de expresiones de referencia.
Tipos de expresiones de referencia
Una expresión de referencia (RE), en lingüística, es cualquier sintagma nominal , o sustituto de un sintagma nominal, cuya función en el discurso es identificar algún objeto individual (cosa, ser, evento ...) La terminología técnica para identificar difiere mucho tratar de una escuela de lingüística a otra. El término más extendido probablemente sea referir , y una cosa identificada es un referente , como por ejemplo en la obra de John Lyons . En lingüística, el estudio de las relaciones de referencia pertenece a la pragmática , el estudio del uso del lenguaje, aunque también es un tema de gran interés para los filósofos, especialmente para aquellos que desean comprender la naturaleza del conocimiento , la percepción y la cognición de manera más general.
Se pueden utilizar varios recursos como referencia: determinantes , pronombres , nombres propios ... Las relaciones de referencia pueden ser de diferentes tipos; los referentes pueden estar en un mundo "real" o imaginario, en el discurso mismo, y pueden ser singulares, plurales o colectivos.
Pronombres
El tipo más simple de expresiones de referencia son pronombres como él y eso . Las comunidades de lingüística y procesamiento del lenguaje natural han desarrollado varios modelos para predecir referentes anáforas, como la teoría del centrado, [1] e idealmente la generación de expresiones de referencia se basaría en tales modelos. Sin embargo, la mayoría de los sistemas NLG usan algoritmos mucho más simples, por ejemplo, usar un pronombre si el referente se mencionó en la oración anterior (o cláusula de oración) y no se mencionó ninguna otra entidad del mismo género en esta oración.
Frases sustantivas definidas
Ha habido una cantidad considerable de investigación sobre la generación de frases nominales definidas, como el gran libro rojo . Gran parte de esto se basa en el modelo propuesto por Dale y Reiter. [2] Esto se ha ampliado de varias formas, por ejemplo, Krahmer et al. [3] presentan un modelo de teoría de grafos de generación de NP definida con muchas propiedades interesantes. En los últimos años, un evento de tarea compartida ha comparado diferentes algoritmos para la generación definida de NP, utilizando el corpus TUNA [4] .
Referencia espacial y temporal
Recientemente se han realizado más investigaciones sobre la generación de expresiones de referencia para el tiempo y el espacio. Tales referencias tienden a ser imprecisas (¿cuál es el significado exacto de esta noche ?), Y también a ser interpretadas de diferentes maneras por diferentes personas. [5] Por lo tanto, puede ser necesario razonar explícitamente sobre las compensaciones entre falsos positivos y falsos negativos, e incluso calcular la utilidad de diferentes expresiones de referencia posibles en un contexto de tarea particular. [6]
Criterios de buenas expresiones
Idealmente, una buena expresión de referencia debería satisfacer una serie de criterios:
- Éxito referencial : Debe identificar de forma inequívoca al referente para el lector.
- Facilidad de comprensión : el lector debe poder leerlo y comprenderlo rápidamente.
- Complejidad computacional : el algoritmo de generación debe ser rápido
- Sin inferencias falsas : la expresión no debe confundir o engañar al lector sugiriendo implicaturas falsas u otras inferencias pragmáticas. Por ejemplo, un lector puede confundirse si le dicen Siéntese junto a la mesa de madera marrón en un contexto donde solo hay una mesa. [2]
Historia
Era anterior a 2000
REG se remonta a los primeros días de NLG. Uno de los primeros enfoques fue realizado por Winograd [7] en 1972, quien desarrolló un algoritmo REG " incremental " para su programa SHRDLU . Posteriormente, los investigadores comenzaron a modelar las habilidades humanas para crear expresiones de referencia en la década de 1980. Este nuevo enfoque del tema fue influenciado por los investigadores Appelt y Kronfeld que crearon los programas KAMP y BERTRAND [8] [9] [10] y consideraron las expresiones de referencia como partes de actos de habla más grandes.
Algunos de sus hallazgos más interesantes fueron el hecho de que las expresiones de referencia pueden usarse para agregar información más allá de la identificación del referente [9] , así como la influencia del contexto comunicativo y las máximas de Grice en las expresiones de referencia. [8] Además, su escepticismo con respecto a la naturalidad de las descripciones mínimas hizo que la investigación de Appelt y Kronfeld fuera la base del trabajo posterior sobre REG.
La búsqueda de problemas simples y bien definidos cambió el rumbo de la investigación a principios de la década de 1990. Este nuevo enfoque fue liderado por Dale y Reiter quienes enfatizaron la identificación del referente como el objetivo central. [11] [12] [13] [14] Al igual que Appelt [8] , discuten la conexión entre las máximas griceas y las expresiones de referencia en su artículo culminante [2] en el que también proponen una definición formal del problema . Además, Reiter y Dale discuten los algoritmos Full Brevity y Greedy Heuristics , así como su algoritmo incremental (IA), que se convirtió en uno de los algoritmos más importantes en REG. [nota 1]
Desarrollos posteriores
Después de 2000, la investigación comenzó a eliminar algunas de las suposiciones simplificadoras que se habían hecho en las primeras investigaciones de REG para crear algoritmos más simples. Diferentes grupos de investigación se concentraron en diferentes limitaciones creando varios algoritmos expandidos. A menudo, estos amplían la EI en una única perspectiva, por ejemplo, en relación con:
- Referencia a conjuntos como "los usuarios de camisetas" o "las manzanas verdes y el plátano de la izquierda" [15] [16] [17] [18]
- Descripciones relacionales como "la copa sobre la mesa" o "la mujer que tiene tres hijos" [19] [20] [21] [22] [23]
- La dependencia del contexto , la vaguedad y la capacidad de ascenso incluyen declaraciones como "el hombre mayor" o "el coche de la izquierda", que a menudo no son claras sin un contexto [6] [24] [25]
- La prominencia y la generación de pronombres dependen en gran medida del discurso, por lo que, por ejemplo, "ella" es una referencia a "la persona femenina (más destacada)" [26] [27] [28] [29] [30] [31] [32]
Muchos supuestos simplificadores siguen vigentes o recién se ha comenzado a trabajar en ellos. Además, todavía no se ha realizado una combinación de las diferentes extensiones y Krahmer y van Deemter la denominan "empresa no trivial". [33]
Otro cambio importante después de 2000 fue el uso cada vez mayor de estudios empíricos para evaluar algoritmos. Este desarrollo tuvo lugar debido a la aparición de corpora transparentes . Aunque todavía hay discusiones sobre cuáles son las mejores métricas de evaluación, el uso de la evaluación experimental ya ha llevado a una mejor comparabilidad de los algoritmos, una discusión sobre los objetivos de REG y una investigación más orientada a tareas.
Además, la investigación ha ampliado su alcance a temas relacionados, como la elección de marcos de representación del conocimiento (KR) . En esta área, la pregunta principal, qué marco de KR es más adecuado para el uso en REG, permanece abierta. La respuesta a esta pregunta depende de qué tan bien se puedan expresar o encontrar las descripciones. Gran parte del potencial de los frameworks KR no se ha utilizado hasta ahora.
Algunos de los diferentes enfoques son el uso de:
- Búsqueda de gráficos que trata las relaciones entre objetivos de la misma forma que las propiedades. [3] [21] [23] [34] [35]
- Satisfacción de restricciones que permite una separación entre la especificación del problema y la implementación. [19] [36]
- Representación del conocimiento moderno que ofrece inferencia lógica en, por ejemplo, Descripción lógica o gráficos conceptuales . [37] [38] [39]
[nota 1]
Definición del problema
Dale y Reiter (1995) piensan en las expresiones de referencia como descripciones distintivas.
Ellos definen:
- El referente como la entidad que debe describirse
- El contexto establecido como un conjunto de entidades destacadas
- El conjunto de contraste o distractores potenciales como todos los elementos del conjunto de contexto excepto el referente
- Una propiedad como referencia a un solo par atributo-valor
Cada entidad del dominio se puede caracterizar como un conjunto de pares atributo-valor, por ejemplotipo, perro, género femenino o edad, 10 años.
Entonces, el problema se define de la siguiente manera:
Dejar ser el referente previsto, y sea el conjunto de contraste. Entonces, un conjunto de pares atributo-valor representará una descripción distintiva si se cumplen las dos condiciones siguientes:
- Cada par atributo-valor en se aplica a : es decir, cada elemento de especifica un atributo-valor que posee.
- Para cada miembro de , hay al menos un elemento de eso no se aplica a : es decir, hay un en que especifica un atributo-valor que no posee. se dice que descarta .
En otras palabras, para generar una expresión de referencia se busca un conjunto de propiedades que se apliquen al referente pero no a los distractores. [2]
El problema podría resolverse fácilmente uniendo todas las propiedades del referente, lo que a menudo conduce a descripciones largas que violan la segunda Máxima Griceana de Cantidad . Otro enfoque sería encontrar la descripción distintiva más corta como lo hace el algoritmo de Brevedad completa . Sin embargo, en la práctica, es más común incluir en su lugar la condición de que las expresiones de referencia producidas por un algoritmo deben ser lo más similares posible a las producidas por humanos, aunque esto a menudo no se menciona explícitamente. [nota 1]
Algoritmos basicos
Brevedad total
El algoritmo Full Brevity siempre encuentra una descripción distintiva mínima, lo que significa que no hay una descripción distintiva más corta con respecto a las propiedades utilizadas.
Por lo tanto, itera sobre y comprueba cada descripción de una longitud de propiedades hasta que se encuentre una descripción distintiva.
De esta forma de crear expresiones de referencia surgen dos problemas. En primer lugar, el algoritmo tiene una alta complejidad, lo que significa que es NP-hard, lo que lo hace poco práctico de usar. [40] En segundo lugar, los hablantes humanos producen descripciones que no son mínimas en muchas situaciones. [41] [42] [43] [44] [nota 1]
Heurística codiciosa
El algoritmo Greedy Heuristics [11] [12] se aproxima al algoritmo Full Brevity agregando iterativamente la propiedad más distintiva a la descripción. La propiedad más distintiva significa la propiedad que excluye a la mayoría de los distractores restantes. El algoritmo Greedy Heuristics es más eficiente que el algoritmo Full Brevity. [nota 1]
Dale y Reiter (1995) [2] presentan el siguiente algoritmo para la heurística codiciosa:
Dejar ser el conjunto de propiedades a realizar en nuestra descripción; dejar ser el conjunto de propiedades que se sabe que son verdaderas de nuestro referente pretendido (asumimos que no está vacío); y dejaser el conjunto de distractores (el conjunto de contraste). Por tanto, las condiciones iniciales son las siguientes:
todos los distractores ; todas las propiedades son verdaderas de ;
Para describir el referente pretendido con respecto al conjunto de contraste , hacemos lo siguiente:
1. Verifique Éxito: si entonces regresa como una descripción distintiva elseif luego falla, de lo contrario, vaya al Paso 2.2. Elija Propiedad: para cada hacer : La propiedad elegida es , dónde es el conjunto más pequeño. vaya al paso 3.3. Amplíe la descripción (escriba el ): vaya al paso 1.
Algoritmo incremental
El algoritmo incremental (IA) de Dale y Reiter [2] fue el algoritmo más influyente antes de 2000. Se basa en la idea de un orden preferencial de atributos o propiedades por el que pasan los hablantes. Entonces, para ejecutar el algoritmo incremental, primero se debe dar un orden de preferencia de atributos. Ahora el algoritmo sigue ese orden y agrega esas propiedades a la descripción que descartan cualquier distractor restante. Además, Dale y Reiter [2] enfatizan el tipo de atributo que siempre se incluye en sus descripciones, incluso si no descarta distractores.
Además, los valores de tipo forman parte de una jerarquía de subsunción que incluye algunos valores de nivel básico . Por ejemplo, en el dominio de mascotas , chihuahua está subsumido por perro y perro por animal . Debido a que el perro se define como un perro de nivel básico, los algoritmos preferirían el perro , si chihuahua no descarta distractores.
El algoritmo incremental es fácil de implementar y también se ejecuta de manera computacionalmente eficiente en tiempo polinomial . La descripción generada por la IA puede contener propiedades redundantes que son superfluas debido a propiedades agregadas posteriormente. Los creadores no consideran esto como una debilidad, sino más bien como hacer que las expresiones sean menos "psicolingüísticamente inverosímiles". [2]
El siguiente algoritmo es una versión simplificada del algoritmo incremental de Dale y Reiter [2] de Krahmer y van Deemter [33] que toma como entrada el referente r , la D que contiene una colección de objetos de dominio y una lista ordenada específica de dominio Pref de preferencia atributos. En la notación L es la descripción, C el conjunto de contexto de distractores y la función RulesOut (⟨A i , V⟩) devuelve el conjunto de objetos que tienen un valor diferente a V para el atributo A i .
IncrementalAlgorithm ({r}, D, Pref) L ← ∅ C ← D - {r} para cada A i en la lista Pref do V = Valor (r, A i ) si C ∩ RulesOut (⟨A i , V⟩) ≠ ∅ entonces L ← L ∪ {⟨A i , V⟩} C ← C - RulesOut (⟨A i , V⟩) endif si C = ∅ entonces devuelve L endif return falla [nota 1]
Evaluación de sistemas REG
Antes del 2000 la evaluación de los sistemas REG era de naturaleza teórica como la realizada por Dale y Reiter. [2] Más recientemente, se han hecho populares los estudios empíricos que se basan principalmente en la suposición de que las expresiones generadas deben ser similares a las producidas por humanos. La evaluación basada en corpus comenzó bastante tarde en REG debido a la falta de conjuntos de datos adecuados. Aún así, la evaluación basada en corpus es el método más dominante en este momento, aunque también existe una evaluación por juicio humano. [nota 1]
Evaluación basada en corpus
En primer lugar, debe hacerse la distinción entre corpus de texto y corpus experimentales. Los corpus de texto como el corpus de GNOME [1] pueden contener textos de todo tipo de dominios. En REG se utilizan para evaluar la parte de realización de algoritmos. La parte de selección de contenido de REG, por otro lado, requiere un corpus que contenga las propiedades de todos los objetos de dominio, así como las propiedades utilizadas en las referencias. Por lo general, aquellos completamente "semánticamente transparentes" [45] creados en experimentos que utilizan configuraciones simples y controladas.
Estos corpus experimentales, una vez más, se pueden separar en corpus de propósito general que se recopilaron con otro propósito pero que se han analizado en busca de expresiones de referencia y corpus dedicados que se centran específicamente en expresiones de referencia. Ejemplos de corpora de propósito general son Pear Stories, [46] el corpus Map Task [47] o Coconut corpus [48] mientras que el corpus Bishop, [49] el corpus Drawer [50] y el corpus TUNA [51] cuentan a los Corpora Dedicados. El corpus TUNA, que contiene datos recopilados en la web sobre los dos dominios, muebles y personas, ya se ha utilizado en tres desafíos REG compartidos. [nota 1]
Métricas de evaluación
Para medir la correspondencia entre corpus y los resultados de los algoritmos REG se han desarrollado varias métricas.
Para medir la parte de selección de contenido, se utiliza el coeficiente de dados [52] o la métrica MASI (Acuerdo de medición sobre elementos de valor establecido) [53] . Estos miden la superposición de propiedades en dos descripciones. En una evaluación, los puntajes generalmente se promedian sobre las referencias hechas por diferentes participantes humanos en el corpus. También a veces se utiliza una medida llamada Porcentaje de recuperación perfecta (PRP) [51] o Precisión [54], que calcula el porcentaje de coincidencias perfectas entre una referencia producida por algoritmos y una producida por humanos.
Para la parte de realización lingüística de REG, la superposición entre cadenas se ha medido utilizando métricas como BLEU [55] o NIST . [56] Un problema que ocurre con las métricas basadas en cuerdas es que, por ejemplo, "El pequeño mono" se mide más cerca de "El burrito" que de "El pequeño mono".
Una forma más lenta de evaluar los algoritmos REG es permitir que los humanos juzguen la adecuación (¿qué tan clara es la descripción?) Y la fluidez (¿la descripción se da en un inglés bueno y claro?) De la expresión generada. También Belz y Gatt [57] evaluaron expresiones de referencia utilizando una configuración experimental. Los participantes obtienen una descripción generada y luego tienen que hacer clic en el objetivo. Aquí se podrían evaluar el tiempo de lectura de métricas extrínsecas, el tiempo de identificación y la tasa de error. [nota 1]
Notas
- ^ a b c d e f g h i Esta sección es un extracto del siguiente artículo. Para obtener más detalles, consulte: E Krahmer, K van Deemter (2012). Generación computacional de expresiones de referencia: una encuesta. Lingüística computacional 38: 173-218 [1]
Referencias
- ↑ a b M Poesio, R Stevenson, B di Eugenio, J Hitzeman (2004). Centrado: una teoría paramétrica y sus instancias. Lingüística computacional 30: 309-363 [2]
- ↑ a b c d e f g h i j R Dale, E Reiter (1995). Interpretaciones computacionales de las máximas griceas en la generación de expresiones referentes. Ciencia cognitiva , 18: 233-263.
- ↑ a b E Krahmer, S van Erk, A Verleg (2003). Generación de expresiones de referencia basada en gráficos. Lingüística Computacional 23: 53-72 [3]
- ^ [4]
- ^ E Reiter, S Sripada, J Hunter, J Yu y I Davy (2005). Elección de palabras en pronósticos meteorológicos generados por computadora. Inteligencia artificial 167: 137-169.
- ^ a b R Turner, Y Sripada, E Reiter (2009) Generación de descripciones geográficas aproximadas. Actas del 12º Taller europeo sobre generación del lenguaje natural (ENLG) , páginas 42–49, Atenas. [5]
- ^ T Winograd (1972). Comprensión del lenguaje natural. Academic Press , Nueva York. Sección 8.3.3, Nombrar objetos y eventos
- ↑ a b c D Appelt (1985). Planificación de expresiones de referencia en inglés. Inteligencia artificial , 26: 1–33.
- ↑ a b D Appelt, A Kronfeld (1987). Un modelo computacional de referencia. En Actas de la 10ª Conferencia Internacional Conjunta sobre Inteligencia Artificial (IJCAI) , páginas 640–647, Milán.
- ^ A Kronfeld (1990). Referencia y Computación: Ensayo en Filosofía Aplicada del Lenguaje. Prensa de la Universidad de Cambridge , Cambridge.
- ↑ a b R Dale (1989). Cocinando expresiones de referencia. En Actas de la 27ª Reunión Anual de la Asociación de Lingüística Computacional (ACL) , páginas 68–75.
- ↑ a b R Dale (1992). Generación de expresiones de referencia: construcción de descripciones en un dominio de objetos y procesos. TheMIT Press , Cambridge, MA.
- ^ E Reiter (1990). La complejidad computacional de evitar implicaturas conversacionales. En Actas de la 28ª Reunión Anual de la Asociación de Lingüística Computacional (ACL) , páginas 97-104, Pittsburgh, PA.
- ^ E Reiter, R Dale (1992). Un algoritmo rápido para la generación de expresiones de referencia. En Actas de la 14ª Conferencia Internacional de Lingüística Computacional (COLING) , páginas 232–238, Nantes.
- ^ H Horacek (2004). Al referirse a conjuntos de objetos de forma natural. Actas de la 3ª Conferencia Internacional sobre Generación del Lenguaje Natural (INLG) , páginas 70–79, Brockenhurst.
- ^ A Gatt, K van Deemter (2007). Elección léxica y perspectiva conceptual en la generación de expresiones referentes plurales. Journal of Logic, Language and Information , 16: 423–443.
- ^ IH Khan, K van Deemter, G Ritchie (2008). Generación de expresiones referentes: Manejo de ambigüedades estructurales. Actas de la 22ª Conferencia Internacional de Lingüística Computacional (COLING) , páginas 433–440, Manchester.
- ^ M Stone (2000). Sobre la identificación de conjuntos. Actas de la 1ª Conferencia Internacional sobre Generación del Lenguaje Natural (INLG) , páginas 116–123, Mitzpe Ramon.
- ↑ a b R Dale, N Haddock (1991). Generación de expresiones referentes que involucran relaciones. Actas de la 5ª Conferencia del Capítulo Europeo de la Asociación de Lingüistas Computacionales (EACL) , páginas 161–166, Berlín.
- ^ E Krahmer, M Theune (2002). Generación eficiente de descripciones en contexto sensible al contexto. En K van Deemter, R Kibble, editores, Information Sharing: Givenness and Newness in Language Processing . Publicaciones de CSLI, Stanford, CA, páginas 223–264.
- ↑ a b J Viethen, R Dale (2008). El uso de relaciones espaciales en expresiones de referencia. Actas de la 5ª Conferencia Internacional de Generación del Lenguaje Natural (INLG) , páginas 59–67, Salt Fork, OH.
- ^ Y Ren, K van Deemter, J Pan (2010). Trazar el potencial de la lógica descriptiva para la generación de expresiones de referencia. Actas de la 6ª Conferencia Internacional de Generación del Lenguaje Natural (INLG) , páginas 115-124, Dublín.
- ↑ a b E Krahmer, M Goudbeek, M Theune (2014). Generación de expresiones de referencia en interacción: una perspectiva basada en gráficos. A Stent, S Bangalore (eds.), Generación de lenguaje natural en sistemas interactivos . Prensa de la Universidad de Cambridge.
- ^ K van Deemter (2006). Generación de expresiones de referencia que involucran propiedades calificables. Lingüística computacional , 32 (2): 195-222.
- ^ H Horacek (2005). Generación de descripciones referenciales en condiciones de incertidumbre. Actas del décimo taller europeo sobre generación del lenguaje natural (ENLG) , páginas 58–67, Aberdeen.
- ^ R Passonneau (1996). Usar el centrado para relajar las limitaciones informativas de Gricean en frases nominales anafóricas del discurso. Lenguaje y habla , 39: 229–264.
- ^ PW Jordan (2000). Influencias intencionales en redescripciones de objetos en el diálogo: evidencia de un estudio empírico. Doctor. tesis, Universidad de Pittsburgh.
- ↑ E Hajičová (1993). Problemas de estructura de oraciones y patrones de discurso — Lingüística teórica y computacional, vol. 2 . Universidad Charles, Praga.
- ^ BJ Grosz, AK Joshi, S Weinstein (1995). Centrado: un marco para modelar la coherencia local del discurso. Lingüística computacional , 21: 203–225.
- ^ D DeVault, C Rich, CL Sidner (2004). Generación de lenguaje natural y contexto del discurso: Computación de conjuntos de distractores de la pila de enfoque. Actas de la 17ª Reunión Internacional de la Sociedad de Investigación en Inteligencia Artificial de Florida (FLAIRS) , Miami Beach, FL.
- ↑ A Siddharthan, A Copestake (2004). Generación de expresiones referentes en dominios abiertos. Actas de la 42ª Reunión Anual de la Asociación de Lingüística Computacional (ACL) , páginas 407–414, Barcelona.
- ^ Yo Paraboni, K van Deemter, J Masthoff (2007). Generar expresiones referentes: Facilitar la identificación de los referentes. Lingüística computacional , 33: 229-254.
- ↑ a b E Krahmer, K van Deemter (2012). Generación computacional de expresiones de referencia: una encuesta. Lingüística computacional 38: 173-218 [6]
- ^ E Krahmer, M Theune, J Viethen, I Hendrickx (2008). Gráfico: Los costos de la redundancia en expresiones de referencia. Actas de la Conferencia Internacional sobre Generación del Lenguaje Natural (INLG) , páginas 227–229, Salt Fork, OH.
- ^ K van Deemter, E Krahmer (2007). Gráficos y booleanos: sobre la generación de expresiones de referencia. En H Bunt, R Muskens, editores, Computing Meaning, Volumen 3. Estudios en Lingüística y Filosofía . Springer Publishers, Berlín, páginas 397–422.
- ^ C Gardent (2002). Generando descripciones definidas mínimas. Actas de la 40ª Reunión Anual de la Asociación de Lingüística Computacional (ACL) , páginas 96–103, Filadelfia, PA.
- ^ M Croitoru, K van Deemter (2007). Un enfoque de gráfico conceptual para la generación de expresiones de referencia. Actas de la 20ª Conferencia Internacional Conjunta sobre Inteligencia Artificial (IJCAI) , páginas 2456–2461, Hyderabad.
- ^ C Gardent, K Striegnitz (2007). Generación de descripciones definidas puente. En H Bunt, Reinhard Muskens, editores, Computing Meaning, Volumen 3. Estudios en Lingüística y Filosofía. Springer Publishers, páginas 369–396, Berlín, DB.
- ^ C Areces, A Koller, K Striegnitz (2008). Referir expresiones como fórmulas de lógica descriptiva. Actas de la 5ª Conferencia Internacional de Generación del Lenguaje Natural (INLG) , páginas 42–49, Salt Fork, OH.
- ↑ MR Garey, D S. Johnson (1979). Computadoras e intratabilidad: una guía para la teoría de NP: integridad . WH Freeman, Nueva York.
- ^ Dr. Olson (1970). Lenguaje y pensamiento: aspectos de una teoría cognitiva de la semántica. Psychological Review , 77: 257-273.
- ^ S Sonnenschein (1984). El efecto de la comunicación redundante en los oyentes: por qué diferentes tipos pueden tener diferentes efectos. Revista de investigación psicolingüística , 13: 147-166.
- ^ T Pechmann (1989). Producción incremental del habla y sobreespecificación referencial. Lingüística , 27: 98-110.
- ^ PE Engelhardt, K GD Bailey, F Ferreira (2006). ¿Observan los hablantes y los oyentes la Máxima de Cantidad Griceana? Journal of Memory and Language , 54: 554–573.
- ^ K van Deemter, I van der Sluis, A Gatt (2006). Construyendo un corpus semánticamente transparente para la generación de expresiones referentes. En Proceedings of the 4th International Conference on Natural Language Generation (INLG) , páginas 130-132, Sydney.
- ^ WW Chafe (1980). Las historias de la pera: aspectos cognitivos, culturales y lingüísticos de la producción narrativa. Ablex, Norwood, Nueva Jersey.
- ^ AA Anderson, M Bader, E Gurman Bard, E Boyle, G Doherty, S Garrod, S Isard, J Kowtko, J McAllister, J Miller, C Sotillo, H Thompson, R Weinert (1991). El corpus de tareas del mapa de la HCRC. Lenguaje y habla , 34: 351–366.
- ^ B Di Eugenio, PW Jordan, RH Thomason, JD Moore (2000). El proceso de acuerdo: una investigación empírica de los diálogos colaborativos entre humanos y humanos mediados por computadora. Revista internacional de estudios humanos e informáticos , 53: 1017–1076.
- ^ P Gorniak, D Roy (2004). Composición semántica fundamentada para escenas visuales. Journal of Artificial Intelligence Research , 21: 429–470.
- ^ J Viethen, R Dale (2006). Algoritmos para generar expresiones referentes: ¿hacen lo que hacen las personas ?. Actas de la 4ª Conferencia Internacional sobre Generación del Lenguaje Natural (INLG) , páginas 63–70, Sydney.
- ↑ a b A Gatt, I van der Sluis, K van Deemter (2007). Evaluar algoritmos para la generación de expresiones de referencia utilizando un corpus equilibrado. Actas del XI Taller europeo sobre generación de lenguaje natural (ENLG) , páginas 49–56, Schloss Dagstuhl.
- ^ Dados LR (1945). Medidas de la cantidad de asociación ecológica entre especies. Ecology , 26: 297-302.
- ^ R Passonneau (2006). Medición de la concordancia sobre elementos de valor establecido (MASI) para la anotación semántica y pragmática. Actas de la 5ª Conferencia Internacional sobre Evaluación y Recursos Lingüísticos (LREC) , páginas 831–836, Génova.
- ^ A Gatt, A Belz, E Kow (2008). El desafío TUNA 2008: Resumen y resultados de la evaluación. Actas de la Quinta Conferencia Internacional sobre Generación del Lenguaje Natural (INLG) , páginas 198–206, Salt Fork, OH.
- ↑ K Papineni, S Roukos, T Ward, W Zhu (2002). BLEU: un método para la evaluación automática de la traducción automática. Actas de la 40ª Reunión Anual de la Asociación de Lingüística Computacional (ACL) , páginas 311–318, Filadelfia, PA.
- ^ G Doddington (2002). Evaluación automática de la calidad de la traducción automática utilizando estadísticas de co-ocurrencia de n-gramas. Actas de la 2da Conferencia Internacional sobre Investigación en Tecnología del Lenguaje Humano (HLT) , páginas 138–145, San Diego, CA.
- ^ A Belz, A Gatt (2008). Medidas de evaluación intrínsecas frente a extrínsecas para la generación de expresiones de referencia. Actas de la 46ª Reunión Anual de la Asociación de Lingüística Computacional (ACL) , Columbus, OH.