Comprensión del lenguaje natural


La comprensión del lenguaje natural ( NLU ) o la interpretación del lenguaje natural ( NLI ) [1] es un subtema del procesamiento del lenguaje natural en inteligencia artificial que se ocupa de la comprensión de lectura de las máquinas . La comprensión del lenguaje natural se considera un problema difícil de IA . [2]

Existe un considerable interés comercial en el campo debido a su aplicación al razonamiento automatizado , [3] traducción automática , [4] respuesta a preguntas , [5] recopilación de noticias, categorización de texto , activación por voz , archivado y análisis de contenido a gran escala. .

El programa ESTUDIANTE , escrito en 1964 por Daniel Bobrow para su tesis doctoral en el MIT , es uno de los primeros intentos conocidos de comprensión del lenguaje natural por parte de una computadora. [6] [7] [8] [9] [10] Ocho años después de que John McCarthy acuñara el término inteligencia artificial , la disertación de Bobrow (titulada Entrada de lenguaje natural para un sistema de resolución de problemas informáticos ) mostró cómo una computadora podía entender la entrada de lenguaje natural simple. para resolver problemas verbales de álgebra.

Un año después, en 1965, Joseph Weizenbaum del MIT escribió ELIZA , un programa interactivo que desarrollaba un diálogo en inglés sobre cualquier tema, siendo el más popular la psicoterapia. ELIZA trabajó mediante un simple análisis y sustitución de palabras clave en frases enlatadas y Weizenbaum eludió el problema de proporcionar al programa una base de datos de conocimiento del mundo real o un rico léxico . Sin embargo, ELIZA ganó una sorprendente popularidad como proyecto de juguete y puede verse como un precursor muy temprano de los sistemas comerciales actuales, como los que utiliza Ask.com . [11]

En 1969 , Roger Schank , de la Universidad de Stanford, introdujo la teoría de la dependencia conceptual para la comprensión del lenguaje natural. [12] Este modelo, parcialmente influenciado por el trabajo de Sydney Lamb , fue ampliamente utilizado por los estudiantes de Schank en la Universidad de Yale , como Robert Wilensky , Wendy Lehnert y Janet Kolodner .

En 1970, William A. Woods introdujo la red de transición aumentada (ATN) para representar la entrada de lenguaje natural. [13] En lugar de reglas de estructura de frases, los ATN usaban un conjunto equivalente de autómatas de estado finito que se llamaban recursivamente. Los ATN y su formato más general denominado "ATN generalizados" continuaron utilizándose durante varios años.