Los espacios semánticos [nota 1] [1] en el dominio del lenguaje natural tienen como objetivo crear representaciones del lenguaje natural que sean capaces de capturar significado. La motivación original para los espacios semánticos se deriva de dos desafíos centrales del lenguaje natural: el desajuste de vocabulario (el hecho de que el mismo significado se puede expresar de muchas maneras) y la ambigüedad del lenguaje natural (el hecho de que el mismo término puede tener varios significados).
La aplicación de espacios semánticos en el procesamiento del lenguaje natural (PNL) tiene como objetivo superar las limitaciones de los enfoques basados en reglas o modelos que operan en el nivel de palabras clave . El principal inconveniente de estos enfoques es su fragilidad y el gran esfuerzo manual requerido para crear sistemas de PNL basados en reglas o corpus de capacitación para el aprendizaje de modelos. [2] [3] Los modelos basados en reglas y en aprendizaje automático se fijan en el nivel de palabras clave y se desglosan si el vocabulario difiere del definido en las reglas o del material de capacitación utilizado para los modelos estadísticos.
La investigación en espacios semánticos se remonta a más de 20 años. En 1996 se publicaron dos artículos que llamaron mucho la atención en torno a la idea general de crear espacios semánticos: el análisis semántico latente [4] y el hiperespacio analógico al lenguaje . [5] Sin embargo, su adopción se vio limitada por el gran esfuerzo computacional requerido para construir y usar esos espacios semánticos. Un gran avance en cuanto a la exactitud de modelar las relaciones asociativas entre las palabras (por ejemplo, "tela de araña", "más ligero del cigarrillo", en contraposición a las relaciones sinónimas como "ballenas y los delfines", "astronauta-driver") se logró mediante la explícita análisis semántico (ESA) [6] en 2007. ESA era un enfoque novedoso (sin aprendizaje automático) que representaba palabras en forma de vectores con 100.000 dimensiones (donde cada dimensión representa un artículo en Wikipedia ). Sin embargo, las aplicaciones prácticas del enfoque son limitadas debido al gran número de dimensiones requeridas en los vectores.
Más recientemente, los avances en las técnicas de redes neuronales en combinación con otros nuevos enfoques ( tensores ) llevaron a una serie de nuevos desarrollos recientes: Word2vec [7] de Google , GloVe [8] de la Universidad de Stanford y fastText [9] de Facebook AI Research Laboratorios (FAIR).
Ver también
Referencias
- ^ también conocido como espacios semánticos distribuidos o memoria semántica distribuida
- ^ Baroni, Marco; Lenci, Alessandro (2010). "Memoria de distribución: un marco general para la semántica basada en corpus". Lingüística computacional . 36 (4): 673–721. CiteSeerX 10.1.1.331.3769 . doi : 10.1162 / coli_a_00016 . S2CID 5584134 .
- ^ Scott C. Deerwester; Susan T. Dumais; Thomas K. Landauer; George W. Furnas; Richard A. Harshen (1990). "Indexación por análisis semántico latente" (PDF) . Revista de la Sociedad Estadounidense de Ciencias de la Información .
- ^ Xing Wei; W. Bruce Croft (2007). "Investigar el rendimiento de la recuperación con modelos de temas construidos manualmente" . Procediendo RIAO '07 Acceso semántico a gran escala al contenido (texto, imagen, video y sonido) . Riao '07: 333–349.
- ^ "LSA: una solución al problema de Platón" . lsa.colorado.edu . Consultado el 19 de abril de 2016 .
- ^ Lund, Kevin; Burgess, Curt (1 de junio de 1996). "Producir espacios semánticos de alta dimensión a partir de la co-ocurrencia léxica" . Métodos, instrumentos y computadoras de investigación del comportamiento . 28 (2): 203-208. doi : 10.3758 / BF03204766 . ISSN 0743-3808 .
- ^ Evgeniy Gabrilovich y Shaul Markovitch (2007). "Computación de la relación semántica utilizando análisis semántico explícito basado en Wikipedia" (PDF) . Proc. 20ª Conf. Conjunta Internacional Sobre Inteligencia Artificial (IJCAI). Páginas. 1606-1611 .
- ^ Tomas Mikolov; Ilya Sutskever; Kai Chen; Greg Corrado; Jeffrey Dean (2013). "Representaciones distribuidas de palabras y frases y su composicionalidad". arXiv : 1310,4546 [ cs.CL ].
- ^ Jeffrey Pennington; Richard Socher; Christopher D. Manning (2014). "GloVe: Vectores globales para representación de palabras" (PDF) .
- ^ Mannes, John. "La biblioteca fastText de Facebook ahora está optimizada para dispositivos móviles" . TechCrunch . Consultado el 12 de enero de 2018 .