En inteligencia artificial , un agente inteligente ( IA ) se refiere a una entidad autónoma que actúa dirigiendo su actividad hacia la consecución de objetivos (es decir, es un agente ), sobre un entorno mediante la observación a través de sensores y consecuentes actuadores (es decir, es inteligente). [1] Los agentes inteligentes también pueden aprender o utilizar el conocimiento para lograr sus objetivos. Pueden ser muy simples o muy complejas . Una máquina réflex, como un termostato , se considera un ejemplo de agente inteligente. [2]
Los agentes inteligentes a menudo se describen esquemáticamente como un sistema funcional abstracto similar a un programa de computadora. Investigadores como Russell y Norvig (2003) consideran que el comportamiento dirigido a objetivos es la esencia de la inteligencia; un agente normativo puede etiquetarse con un término tomado de la economía , " agente racional ". En este paradigma de acción racional, una AI posee un "modelo" interno de su entorno. Este modelo encapsula todas las creencias del agente sobre el mundo. El agente también tiene una "función objetiva" que encapsula todos los objetivos de la AI. Dicho agente está diseñado para crear y ejecutar cualquier plan que, una vez completado, maximice el valor esperado de la función objetivo. [3] Un agente de aprendizaje reforzado puede tener una "función de recompensa" que permite a los programadores dar forma al comportamiento deseado de la IA, [4] y el comportamiento de un algoritmo evolutivo está conformado por una "función de aptitud". [5] Las descripciones abstractas de agentes inteligentes a veces se denominan agentes inteligentes abstractos ( AIA ) para distinguirlos de sus implementaciones del mundo real como sistemas informáticos, sistemas biológicos u organizaciones. Algunos agentes inteligentes autónomos están diseñados para funcionar en ausencia de intervención humana. A medida que los agentes inteligentes se vuelven más populares, aumentan los riesgos legales involucrados. [6] : 815
Los agentes inteligentes en la inteligencia artificial están estrechamente relacionados con los agentes en la economía , y las versiones del paradigma del agente inteligente se estudian en la ciencia cognitiva , la ética , la filosofía de la razón práctica , así como en muchos modelos socio-cognitivos interdisciplinarios y simulaciones sociales por computadora .
Los agentes inteligentes también están estrechamente relacionados con los agentes de software (un programa informático autónomo que realiza tareas en nombre de los usuarios). En ciencias de la computación , un agente inteligente es un agente de software que tiene cierta inteligencia, por ejemplo, los programas autónomos utilizados para la asistencia del operador o la minería de datos (a veces denominados bots ) también se denominan "agentes inteligentes". [ cita requerida ]
Definiciones y caracteristicas
Según Nikola Kasabov (1998), [7] los sistemas IA deben presentar las siguientes características:
- Acomodar nuevas reglas de resolución de problemas de forma incremental
- Adáptese en línea y en tiempo real
- Son capaces de analizarse a sí mismos en términos de comportamiento, error y éxito.
- Aprender y mejorar mediante la interacción con el medio ambiente ( personificación )
- Aprenda rápidamente de grandes cantidades de datos
- Tener capacidades de recuperación y almacenamiento de ejemplares basadas en memoria
- Tener parámetros para representar la memoria a corto y largo plazo, la edad, el olvido, etc.
Padgham y Winikoff (2005) coinciden en que un agente inteligente está situado en un entorno y responde (de forma oportuna, aunque no necesariamente en tiempo real) a los cambios del entorno. Sin embargo, los agentes inteligentes también deben perseguir objetivos de manera proactiva de una manera flexible y sólida. [a] Los desiderata opcionales incluyen que el agente sea racional y que el agente sea capaz de realizar un análisis de creencia-deseo-intención . [8] Algunas definiciones del siglo XX caracterizan a un agente como un programa que ayuda a un usuario o que actúa en nombre de un usuario. [9] La influyente AIMA (2009) define un agente como "cualquier cosa que pueda verse como que percibe su entorno a través de sensores y actúa sobre ese entorno a través de actuadores", y caracteriza la inteligencia como la capacidad de actuar de acuerdo con ciertos estándares ideales. por la racionalidad. [10] [11]
"Agente inteligente" también se utiliza a menudo como un término de marketing vago, a veces sinónimo de " asistente personal virtual ". [12]
Función objetiva
A algunos agentes se les puede asignar una "función de objetivo" explícita; un agente se considera más inteligente si realiza acciones de manera constante que maximizan con éxito su función objetivo programada. La "función de objetivo" encapsula todos los objetivos sobre los que se impulsa al agente a actuar; en el caso de los agentes racionales, la función también encapsula las compensaciones aceptables entre el logro de objetivos en conflicto. (La terminología varía, por ejemplo, algunos agentes buscan maximizar o minimizar una " función de utilidad ", "función objetivo", o " función de pérdida ".) [10] [11] El teórico y incomputable Aixi diseño es un agente máximamente inteligente en este paradigma; [13] sin embargo, en el mundo real, la IA está limitada por tiempo finito y recursos de hardware, y los científicos compiten para producir algoritmos que pueden lograr puntajes progresivamente más altos en pruebas de referencia con hardware del mundo real. [14]
Los sistemas que tradicionalmente no se consideran agentes, como los sistemas de representación del conocimiento, a veces se subsumen en el paradigma enmarcándolos como agentes que tienen el objetivo de (por ejemplo) responder preguntas con la mayor precisión posible; el concepto de "acción" se amplía aquí para abarcar el "acto" de dar una respuesta a una pregunta. Como una extensión adicional, los sistemas impulsados por mimetismo se pueden enmarcar como agentes que están optimizando una "función objetivo" en función de qué tan cerca la IA logra imitar el comportamiento deseado. [10] [11] En las redes generativas de confrontación de la década de 2010, un componente "codificador" / "generador" intenta imitar e improvisar la composición del texto humano. El generador está intentando maximizar una función encapsulando qué tan bien puede engañar a un componente antagonista "predictor" / "discriminador". [15]
Si bien los sistemas GOFAI a menudo aceptan una función de objetivo explícita, el paradigma también se puede aplicar a las redes neuronales y a la computación evolutiva . El aprendizaje por refuerzo puede generar agentes inteligentes que parecen actuar de maneras destinadas a maximizar una "función de recompensa". [16] A veces, en lugar de configurar la función de recompensa para que sea directamente igual a la función de evaluación de referencia deseada, los programadores de aprendizaje automático utilizarán la configuración de recompensa para otorgar inicialmente recompensas a la máquina por el progreso incremental en el aprendizaje. [17] Yann LeCun declaró en 2018 que "la mayoría de los algoritmos de aprendizaje que la gente ha ideado consisten esencialmente en minimizar alguna función objetiva". [18] El ajedrez AlphaZero tenía una función objetiva simple; cada victoria cuenta como +1 punto y cada derrota cuenta como -1 punto. Una función objetiva para un automóvil autónomo tendría que ser más complicada. [19] La computación evolutiva puede desarrollar agentes inteligentes que parecen actuar de maneras destinadas a maximizar una "función de aptitud" que influye en cuántos descendientes se le permite dejar a cada agente. [5]
Estructura de agentes
Un programa de agente simple puede definirse matemáticamente como una función f (llamada "función de agente") [20] que mapea cada secuencia de percepciones posible a una acción posible que el agente puede realizar oa un coeficiente, elemento de retroalimentación, función o constante que afecta eventuales acciones:
La función del agente es un concepto abstracto, ya que podría incorporar varios principios de toma de decisiones como el cálculo de la utilidad de las opciones individuales, la deducción sobre las reglas lógicas, la lógica difusa , etc. [21]
El agente del programa , en cambio, asigna cada percepción posible a una acción. [22]
Usamos el término percepción para referirnos a las entradas de percepción del agente en un instante dado. En las siguientes figuras, un agente es cualquier cosa que pueda verse como que percibe su entorno a través de sensores y actúa sobre ese entorno a través de actuadores.
Arquitecturas
Weiss (2013) define cuatro clases de agentes:
- Agentes basados en la lógica: en los que la decisión sobre qué acción realizar se realiza mediante deducción lógica;
- Agentes reactivos: en los que la toma de decisiones se implementa en alguna forma de mapeo directo de la situación a la acción;
- Agentes de creencias, deseos e intenciones, en los que la toma de decisiones depende de la manipulación de estructuras de datos que representan las creencias, los deseos y las intenciones del agente; y finalmente,
- Arquitecturas en capas: en las que la toma de decisiones se realiza a través de varias capas de software, cada una de las cuales razona más o menos explícitamente sobre el entorno en diferentes niveles de abstracción.
Generalmente, un agente puede construirse separando el cuerpo en sensores y actuadores, y de manera que opere con un sistema de percepción complejo que toma la descripción del mundo como entrada para un controlador y envía comandos al actuador. Sin embargo, a menudo es necesaria una jerarquía de capas de controlador para equilibrar la reacción inmediata deseada para las tareas de bajo nivel y el razonamiento lento sobre objetivos complejos de alto nivel. [23]
Clases
Russell y Norvig (2003) agrupan a los agentes en cinco clases según su grado de inteligencia y capacidad percibidas: [24]
- agentes reflejos simples
- agentes reflejos basados en modelos
- agentes basados en objetivos
- agentes basados en servicios públicos
- agentes de aprendizaje
Agentes reflejos simples
Los agentes reflejos simples actúan solo sobre la base de la percepción actual, ignorando el resto de la historia de la percepción. La función del agente se basa en la regla condición-acción : "si condición, entonces acción".
Esta función de agente solo tiene éxito cuando el entorno es completamente observable. Algunos agentes reflejos también pueden contener información sobre su estado actual, lo que les permite ignorar las condiciones cuyos actuadores ya están activados.
Los bucles infinitos son a menudo inevitables para los agentes reflejos simples que operan en entornos parcialmente observables. Nota: Si el agente puede aleatorizar sus acciones, es posible que se escape de bucles infinitos.
Agentes reflejos basados en modelos
Un agente basado en modelos puede manejar entornos parcialmente observables. Su estado actual se almacena dentro del agente manteniendo algún tipo de estructura que describe la parte del mundo que no se puede ver. Este conocimiento sobre "cómo funciona el mundo" se denomina modelo del mundo, de ahí el nombre de "agente basado en modelos".
Un agente reflejo basado en modelos debe mantener algún tipo de modelo interno que dependa del historial de percepción y, por lo tanto, refleje al menos algunos de los aspectos no observados del estado actual. El historial de percepción y el impacto de la acción en el medio ambiente se pueden determinar utilizando el modelo interno. Luego elige una acción de la misma manera que el agente reflejo.
Un agente también puede utilizar modelos para describir y predecir los comportamientos de otros agentes en el entorno. [25]
Agentes basados en objetivos
Los agentes basados en objetivos amplían aún más las capacidades de los agentes basados en modelos mediante el uso de información de "objetivos". La información de la meta describe situaciones que son deseables. Esto proporciona al agente una forma de elegir entre múltiples posibilidades, seleccionando la que alcanza un estado objetivo. La búsqueda y la planificación son los subcampos de la inteligencia artificial dedicados a encontrar secuencias de acción que logren los objetivos del agente.
Agentes basados en servicios públicos
Los agentes basados en objetivos solo distinguen entre estados objetivo y estados no objetivo. También es posible definir una medida de cuán deseable es un estado en particular. Esta medida se puede obtener mediante el uso de una función de utilidad que mapea un estado con una medida de la utilidad del estado. Una medida de desempeño más general debería permitir una comparación de diferentes estados del mundo según cuán bien satisficieron los objetivos del agente. El término utilidad se puede utilizar para describir cuán "feliz" es el agente.
Un agente racional basado en la utilidad elige la acción que maximiza la utilidad esperada de los resultados de la acción, es decir, lo que el agente espera obtener, en promedio, dadas las probabilidades y utilidades de cada resultado. Un agente basado en la utilidad tiene que modelar y realizar un seguimiento de su entorno, tareas que han implicado una gran cantidad de investigación sobre percepción, representación, razonamiento y aprendizaje.
Agentes de aprendizaje
El aprendizaje tiene la ventaja de que permite a los agentes operar inicialmente en entornos desconocidos y volverse más competentes de lo que su conocimiento inicial por sí solo podría permitir. La distinción más importante es entre el "elemento de aprendizaje", que es responsable de realizar mejoras, y el "elemento de desempeño", que es responsable de seleccionar las acciones externas.
El elemento de aprendizaje utiliza la retroalimentación del "crítico" sobre cómo lo está haciendo el agente y determina cómo el elemento de desempeño, o "actor", debe modificarse para mejorar en el futuro. El elemento de desempeño es lo que antes hemos considerado el agente completo: toma percepciones y decide acciones.
El último componente del agente de aprendizaje es el "generador de problemas". Se encarga de sugerir acciones que conducirán a experiencias nuevas e informativas.
Jerarquías de agentes
Para realizar activamente sus funciones , los Agentes Inteligentes hoy en día normalmente se agrupan en una estructura jerárquica que contiene muchos "subagrupantes". Subagrupantes inteligentes procesan y realizan funciones de nivel inferior. Tomados en conjunto, el agente inteligente y los subagrupantes crean un sistema completo que puede lograr tareas u objetivos difíciles con comportamientos y respuestas que muestran una forma de inteligencia.
Aplicaciones
Los agentes inteligentes se aplican como asistentes en línea automatizados , donde funcionan para percibir las necesidades de los clientes con el fin de realizar un servicio al cliente individualizado . Dicho agente puede consistir básicamente en un sistema de diálogo , un avatar , así como un sistema experto para proporcionar experiencia específica al usuario. [26] También se pueden utilizar para optimizar la coordinación de grupos humanos en línea. [27]
Ver también
- Agente de software
- Arquitecturas cognitivas
- Radio cognitiva : un campo práctico para la implementación
- Cibernética , Informática
- Agente de minería de datos
- Agente encarnado
- Búsqueda federada : la capacidad de los agentes para buscar fuentes de datos heterogéneas utilizando un solo vocabulario.
- Agentes difusos : IA implementado con lógica difusa adaptativa
- Lenguaje de programación de GOAL agent
- Inteligencia
- Sistema inteligente
- Agentes inteligentes JACK
- Sistema multi-agente y el sistema de agentes múltiples - varios agentes interactivos
- Clasificación PEAS del entorno de un agente
- Aprendizaje reforzado
- Web semántica : hacer que los datos en la Web estén disponibles para el procesamiento automatizado por parte de los agentes.
- Realidad simulada
- Simulación social
- Era de agentes inteligentes
Notas
- ^ La definición de Padgham & Winikoff cubre explícitamente solo a los agentes sociales que interactúan con otros agentes.
Referencias en línea
- ^ Anderson, Michael; Anderson, Susan Leigh (15 de diciembre de 2007). "Ética de la máquina: creando un agente ético inteligente" . Revista AI . 28 (4): 15-15. doi : 10.1609 / aimag.v28i4.2065 . ISSN 2371-9621 .
- ^ Según la definición dada por Russell & Norvig (2003 , cap. 2)
- ^ Bringsjord, Selmer y Govindarajulu, Naveen Sundar, "Inteligencia artificial", The Stanford Encyclopedia of Philosophy (Edición de verano de 2020), Edward N. Zalta (ed.), URL = https://plato.stanford.edu/archives/sum2020 / entradas / inteligencia-artificial / .
- ^ Wolchover, Natalie (30 de enero de 2020). "La inteligencia artificial hará lo que le pedimos. Eso es un problema" . Revista Quanta . Consultado el 21 de junio de 2020 .
- ^ a b Toro, Larry. "En computación evolutiva basada en modelos". Soft Computing 3, no. 2 (1999): 76-82.
- ^ Van Loo, Rory (1 de marzo de 2019). "Perfección del mercado digital" . Revisión de la ley de Michigan . 117 (5): 815.
- ^ Kasabov 1998
- ^ Lin Padgham y Michael Winikoff. Desarrollo de sistemas de agentes inteligentes: una guía práctica. Vol. 13. John Wiley & Sons, 2005.
- ^ Burgin, Mark y Gordana Dodig-Crnkovic. "Un acercamiento sistemático a los agentes artificiales". preimpresión de arXiv arXiv: 0902.3513 (2009).
- ↑ a b c Russell y Norvig (2003)
- ^ a b c Bringsjord, Selmer y Govindarajulu, Naveen Sundar, "Artificial Intelligence", The Stanford Encyclopedia of Philosophy (edición de verano de 2020), Edward N. Zalta (ed.), próxima URL = < https: //plato.stanford. edu / archivos / sum2020 / entradas / inteligencia-artificial / >.
- ^ Fingar, Peter (2018). "Competir por el futuro con agentes inteligentes ... y una confesión" . Sitios de Forbes . Consultado el 18 de junio de 2020 .
- ^ Adams, Sam; Arel, Itmar; Bach, Joscha; Coop, Robert; Furlan, Rod; Goertzel, Ben; Hall, J. Storrs; Samsonovich, Alexei; Scheutz, Matthias; Schlesinger, Matthew; Shapiro, Stuart C .; Sowa, John (15 de marzo de 2012). "Mapeo del panorama de la inteligencia general artificial a nivel humano" . Revista AI . 33 (1): 25. doi : 10.1609 / aimag.v33i1.2322 .
- ^ Hutson, Matthew (27 de mayo de 2020). "Los avances llamativos en algunos campos de la IA no son reales" . Ciencia | AAAS . Consultado el 18 de junio de 2020 .
- ^ "Redes generativas adversarias: qué son las GAN y cómo han evolucionado" . VentureBeat . 26 de diciembre de 2019 . Consultado el 18 de junio de 2020 .
- ^ Wolchover, Natalie (enero de 2020). "La inteligencia artificial hará lo que le pedimos. Eso es un problema" . Revista Quanta . Consultado el 18 de junio de 2020 .
- ^ Andrew Y. Ng, Daishi Harada y Stuart Russell. "Política invariante bajo transformaciones de recompensa: teoría y aplicación para dar forma a la recompensa" En ICML, vol. 99, págs. 278-287. 1999.
- ^ Martin Ford . Arquitectos de la inteligencia: la verdad sobre la IA de las personas que la construyen. Packt Publishing Ltd, 2018.
- ^ "Por qué la inteligencia artificial de AlphaZero tiene problemas con el mundo real" . Revista Quanta . 2018 . Consultado el 18 de junio de 2020 .
- ^ Russell y Norvig 2003 , p. 33
- ^ Salamon, Tomas (2011). Diseño de modelos basados en agentes . Repin: Bruckner Publishing. págs. 42–59. ISBN 978-80-904661-1-1.
- ^ Nilsson, Nils J. (abril de 1996). "Inteligencia artificial: un enfoque moderno" . Inteligencia artificial . 82 (1–2): 369–380. doi : 10.1016 / 0004-3702 (96) 00007-0 . ISSN 0004-3702 .
- ^ Poole, David; Mackworth, Alan. "1.3 Agentes situados en entornos‣ Capítulo 2 Arquitecturas de agentes y control jerárquico‣ Inteligencia artificial: fundamentos de los agentes computacionales, 2ª edición" . artint.info . Consultado el 28 de noviembre de 2018 .
- ^ Russell y Norvig 2003 , págs. 46–54
- ^ Stefano Albrecht y Peter Stone (2018). Agentes autónomos modelando otros agentes: una encuesta completa y problemas abiertos. Inteligencia artificial, vol. 258, págs. 66-95. https://doi.org/10.1016/j.artint.2018.01.002
- ^ Proporcionar instructor de idiomas con asistente de inteligencia artificial . Por Krzysztof Pietroszek. Revista Internacional de Tecnologías Emergentes en el Aprendizaje (iJET), Vol 2, No 4 (2007) [1]"Copia archivada" . Archivado desde el original el 7 de marzo de 2012 . Consultado el 29 de enero de 2012 .CS1 maint: copia archivada como título ( enlace )
- ^ Shirado, Hirokazu; Christakis, Nicholas A (2017). "Agentes autónomos localmente ruidosos mejoran la coordinación humana global en experimentos de red" . Naturaleza . 545 (7654): 370–374. Código Bib : 2017Natur.545..370S . doi : 10.1038 / nature22332 . PMC 5912653 . PMID 28516927 .
otras referencias
- Russell, Stuart J .; Norvig, Peter (2003). Inteligencia artificial: un enfoque moderno (2ª ed.). Upper Saddle River, Nueva Jersey: Prentice Hall. Capítulo 2. ISBN 0-13-790395-2.
- Franklin, Stan; Graesser, Art (1996). "¿Es un Agente o solo un Programa ?: Una Taxonomía para Agentes Autónomos" (PDF) . Actas del Tercer Taller Internacional sobre Teorías de Agentes, Arquitecturas y Lenguajes . Springer-Verlag. Archivado desde el original (PDF) el 29 de mayo de 2015.
- Kasabov, N. (1998). "Introducción: sistemas adaptativos inteligentes híbridos". Revista Internacional de Sistemas Inteligentes . 13 (6): 453–454. doi : 10.1002 / (SICI) 1098-111X (199806) 13: 6 <453 :: AID-INT1> 3.0.CO; 2-K .
- Weiss, G. (2013). Sistemas multiagente (2ª ed.). Cambridge, MA: MIT Press. ISBN 978-0-262-01889-0.
enlaces externos
- Coneural