El modelo de software de creencia-deseo-intención ( BDI ) es un modelo de software desarrollado para programar agentes inteligentes . Se caracteriza superficialmente por la implementación de las creencias , deseos e intenciones de un agente., en realidad usa estos conceptos para resolver un problema particular en la programación de agentes. En esencia, proporciona un mecanismo para separar la actividad de seleccionar un plan (de una biblioteca de planes o una aplicación de planificador externo) de la ejecución de los planes actualmente activos. En consecuencia, los agentes de BDI pueden equilibrar el tiempo dedicado a deliberar sobre los planes (elegir qué hacer) y ejecutar esos planes (hacerlo). Una tercera actividad, la creación de planes en primer lugar (planificación), no está dentro del alcance del modelo y se deja al diseñador y programador del sistema.
Descripción general
Para lograr esta separación, el modelo de software BDI implementa los aspectos principales de la teoría del razonamiento práctico humano de Michael Bratman (también conocida como Creencia-Deseo-Intención o BDI). Es decir, implementa las nociones de creencia, deseo y (en particular) intención, de una manera inspirada por Bratman. Para Bratman, la creencia y el deseo son ambas actitudes favorables (actitudes mentales relacionadas con la acción), pero la intención se distingue como una actitud favorable que controla la conducta. Él identifica el compromiso como el factor distintivo entre el deseo y la intención, señalando que conduce a (1) la persistencia temporal en los planes y (2) los planes adicionales que se hacen sobre la base de aquellos con los que ya está comprometido. El modelo de software BDI aborda parcialmente estos problemas. La persistencia temporal, en el sentido de referencia explícita al tiempo, no se explora. La naturaleza jerárquica de los planes se implementa más fácilmente: un plan consta de varios pasos, algunos de los cuales pueden invocar otros planes. La definición jerárquica de los planes en sí implica una especie de persistencia temporal, ya que el plan global permanece en vigor mientras se ejecutan los planes subsidiarios.
Un aspecto importante del modelo de software BDI (en términos de su relevancia para la investigación) es la existencia de modelos lógicos a través de los cuales es posible definir y razonar sobre agentes BDI. La investigación en esta área ha llevado, por ejemplo, a la axiomatización de algunas implementaciones de BDI, así como a descripciones lógicas formales como el BDICTL de Anand Rao y Michael Georgeff. Este último combina una lógica multimodal (con modalidades que representan creencias, deseos e intenciones) con la lógica temporal CTL * . Más recientemente, Michael Wooldridge ha ampliado BDICTL para definir LORA (la lógica de los agentes racionales), incorporando una lógica de acción. En principio, LORA permite razonar no solo sobre agentes individuales, sino también sobre la comunicación y otras interacciones en un sistema de agentes múltiples .
El modelo de software BDI está estrechamente asociado con agentes inteligentes, pero no asegura, por sí mismo, todas las características asociadas con dichos agentes. Por ejemplo, permite que los agentes tengan creencias privadas, pero no los obliga a ser privados. Tampoco tiene nada que decir sobre la comunicación con los agentes. En definitiva, el modelo de software BDI es un intento de resolver un problema que tiene más que ver con los planes y la planificación (la elección y ejecución de los mismos) que con la programación de agentes inteligentes. Este enfoque ha sido propuesto recientemente por Steven Umbrello y Roman Yampolskiy como un medio para diseñar vehículos autónomos para los valores humanos. [1]
Agentes BDI
Un agente BDI es un tipo particular de agente de software racional limitado , imbuido de actitudes mentales particulares , a saber: Creencias, Deseos e Intenciones (BDI).
Arquitectura
Esta sección define los componentes arquitectónicos idealizados de un sistema BDI.
- Creencias : Las creencias representan el estado informativo del agente, en otras palabras, sus creencias sobre el mundo (incluido él mismo y otros agentes). Las creencias también pueden incluir reglas de inferencia , lo que permite que el encadenamiento hacia adelante conduzca a nuevas creencias. El uso del término creencia en lugar de conocimiento reconoce que lo que cree un agente puede no ser necesariamente cierto (y de hecho puede cambiar en el futuro).
- Conjunto de creencias: las creencias se almacenan en una base de datos (a veces llamada base de creencias o conjunto de creencias ), aunque esa es una decisión de implementación .
- Deseos : los deseos representan el estado motivacional del agente. Representan objetivos o situaciones que al agente le gustaría lograr o provocar. Ejemplos de deseos pueden ser: encontrar el mejor precio , ir a la fiesta o hacerse rico .
- Metas : Una meta es un deseo que ha sido adoptado para que el agente lo persiga activamente. El uso del término metas agrega la restricción adicional de que el conjunto de deseos activos debe ser consistente. Por ejemplo, uno no debe tener objetivos simultáneos para ir a una fiesta y quedarse en casa, aunque ambos podrían ser deseables.
- Intenciones : Las intenciones representan el estado deliberativo del agente, lo que el agente ha elegido hacer. Las intenciones son deseos con los que el agente se ha comprometido hasta cierto punto. En los sistemas implementados, esto significa que el agente ha comenzado a ejecutar un plan.
- Planes : Los planes son secuencias de acciones (recetas o áreas de conocimiento) que un agente puede realizar para lograr una o más de sus intenciones. Los planes pueden incluir otros planes: mi plan para dar una vuelta puede incluir un plan para encontrar las llaves de mi auto. Esto refleja que en el modelo de Bratman, los planes se conciben inicialmente solo parcialmente, y los detalles se completan a medida que avanzan.
- Eventos : son desencadenantes de la actividad reactiva del agente. Un evento puede actualizar creencias, desencadenar planes o modificar metas. Los eventos pueden ser generados externamente y recibidos por sensores o sistemas integrados. Además, los eventos pueden generarse internamente para desencadenar actualizaciones desacopladas o planes de actividad.
El BDI también se amplió con un componente de obligaciones, dando lugar a la arquitectura de agentes BOID [2] para incorporar obligaciones, normas y compromisos de los agentes que actúan dentro de un entorno social.
Intérprete BDI
Esta sección define un intérprete BDI idealizado que proporciona la base del linaje PRS de sistemas BDI de SRI : [3]
- estado de inicialización
- repetir
- opciones: generador de opciones (cola de eventos)
- opciones-seleccionadas: deliberado (opciones)
- Intenciones de actualización (opciones-seleccionadas)
- ejecutar()
- obtener-nuevos-eventos-externos ()
- caer-actitudes-infructuosas ()
- caer-actitudes-imposibles ()
- fin de repetir
Limitaciones y críticas
El modelo de software BDI es un ejemplo de una arquitectura de razonamiento para un solo agente racional y una preocupación en un sistema de múltiples agentes más amplio . Esta sección delimita el alcance de las preocupaciones del modelo de software BDI, destacando las limitaciones conocidas de la arquitectura.
- Aprendizaje : los agentes de BDI carecen de mecanismos específicos dentro de la arquitectura para aprender del comportamiento pasado y adaptarse a nuevas situaciones. [4] [5]
- Tres actitudes : los teóricos clásicos de la decisión y la investigación de planificación cuestionan la necesidad de tener las tres actitudes, la investigación de IA distribuida cuestiona si las tres actitudes son suficientes. [3]
- Lógicas : Las lógicas multimodales que subyacen al BDI (que no tienen axiomatizaciones completas y no son computables de manera eficiente) tienen poca relevancia en la práctica. [3] [6]
- Múltiples agentes : además de no apoyar explícitamente el aprendizaje, el marco puede no ser apropiado para el comportamiento de aprendizaje. Además, el modelo BDI no describe explícitamente los mecanismos para la interacción con otros agentes y la integración en un sistema de múltiples agentes . [7]
- Metas explícitas : la mayoría de las implementaciones de BDI no tienen una representación explícita de las metas. [8]
- Lookahead : La arquitectura no tiene (por diseño) ninguna deliberación o planificación anticipada. Esto puede no ser deseable porque los planes adoptados pueden consumir recursos limitados, las acciones pueden no ser reversibles, la ejecución de tareas puede llevar más tiempo que la planificación anticipada y las acciones pueden tener efectos secundarios indeseables si no tienen éxito. [9]
Implementaciones de agentes BDI
BDI 'puro'
- Sistema de razonamiento procedimental (PRS)
- IRMA (no implementado pero puede considerarse como PRS sin reconsideración)
- UM-PRS [10]
- OpenPRS [11]
- Sistema de razonamiento distribuido de múltiples agentes (dMARS)
- AgentSpeak (L) - ver Jason a continuación
- AgentSpeak (RT) [12] [13]
- Sistema de agente en tiempo real (ARTS) [14] (ARTS) [15]
- MERMELADA [16]
- Agentes inteligentes JACK
- JADEX (proyecto de código abierto) [17]
- JASON [18]
- GORITA
- CHISPA [19]
- 3APL
- 2APL [20]
- Lenguaje de programación de GOAL agent
- CogniTAO (Think-As-One) [21] [22]
- Conjunto de procesos de sistemas vivos [23] [24]
- PROFETA [25]
- Gwendolen [26] (Parte del marco de lenguajes de programación del agente de verificación modelo [27] [28] )
Extensiones y sistemas híbridos
- Equipos JACK
- CogniTAO (Think-As-One) [21] [22]
- Conjunto de procesos de sistemas vivos [23] [24]
- Brahms [29]
- JaCaMo [30]
Ver también
- Selección de acción
- Inteligencia artificial
- Revisión de creencias
- Agente inteligente
- Razonamiento
- Agente de software
Notas
- ^ Umbrello, Steven; Yampolskiy, Roman V. (15 de mayo de 2021). "Diseño de IA para la explicabilidad y la verificabilidad: un enfoque de diseño sensible al valor para evitar la estupidez artificial en vehículos autónomos" . Revista Internacional de Robótica Social . doi : 10.1007 / s12369-021-00790-w . ISSN 1875-4805 .
- ^ J. Broersen, M. Dastani, J. Hulstijn, Z. Huang, L. van der Torre La arquitectura BOID: conflictos entre creencias, obligaciones, intenciones y deseos Actas de la quinta conferencia internacional sobre agentes autónomos Páginas 9-16, ACM Nueva York, NY, EE. UU.
- ^ a b c Rao, diputado Georgeff. (1995). "Agentes BDI: de la teoría a la práctica" (PDF) . Actas de la Primera Conferencia Internacional sobre Sistemas Multiagente (ICMAS'95) .
- ^ Phung, Toan; Michael Winikoff; Lin Padgham (2005). "Aprendizaje dentro del marco BDI: un análisis empírico". Sistemas inteligentes de información e ingeniería basados en el conocimiento . doi : 10.1007 / 11553939_41 .
- ^ Guerra-Hernández, Alejandro; Amal El Fallah-Seghrouchni; Henry Soldano (2004). "Aprendizaje en sistemas multiagente BDI". Lógica computacional en sistemas multiagente . doi : 10.1007 / 978-3-540-30200-1_12 .
- ^ Rao, diputado Georgeff. (1995). "Modelos formales y procedimientos de decisión para sistemas multiagente". Nota técnica, AAII . CiteSeerX 10.1.1.52.7924 .
- ^ Georgeff, Michael; Barney Pell; Martha E. Pollack ; Milind Tambe; Michael Wooldridge (1999). "El modelo de agencia de creencia-deseo-intención". Agentes inteligentes V: Teorías, arquitecturas y lenguajes de los agentes . doi : 10.1007 / 3-540-49057-4_1 .
- ^ Pokahr, Alexander; Lars Braubach; Winfried Lamersdorf (2005). "Jadex: un motor de razonamiento BDI". Programación de agentes múltiples . doi : 10.1007 / 0-387-26350-0_6 .
- ^ Sardina, Sebastián; Lavindra de Silva; Lin Padgham (2006). "Planificación jerárquica en lenguajes de programación de agentes BDI: un enfoque formal" . Actas de la quinta conferencia conjunta internacional sobre agentes autónomos y sistemas multiagente .
- ^ UM-PRS
- ^ "OpenPRS" . Archivado desde el original el 21 de octubre de 2014 . Consultado el 23 de octubre de 2014 .
- ^ AgentSpeak (RT) Archivado el 26 de marzo de 2012 en la Wayback Machine.
- ^ Vikhorev, K., Alechina, N. y Logan, B. (2011). "Programación de agentes con prioridades y fechas límite" Archivado el 26 de marzo de 2012 en Wayback Machine . En Actas de la Décima Conferencia Internacional sobre Agentes Autónomos y Sistemas Multiagente (AAMAS 2011). Taipei, Taiwán. Mayo de 2011., págs. 397-404.
- ↑ Agent Real-Time System Archivado el 27 de septiembre de 2011 en la Wayback Machine.
- ^ Vikhorev, K., Alechina, N. y Logan, B. (2009). "La arquitectura del agente en tiempo real de ARTS" Archivado el 26 de marzo de 2012 en Wayback Machine . En las actas del segundo taller sobre lenguajes, metodologías y herramientas de desarrollo para sistemas multiagente (LADS2009). Turín, Italia. Septiembre de 2009. Actas del Taller CEUR Vol-494.
- ^ JAM
- ^ JADEX
- ^ [1]
- ^ CHISPA
- ^ 2APL
- ^ a b CogniTAO (Think-As-One)
- ^ a b TAO: Un sistema de control de alto nivel basado en JAUS para robots individuales y múltiples Y. Elmaliach, CogniTeam, (2008) "Copia archivada" . Archivado desde el original el 7 de enero de 2009 . Consultado el 3 de noviembre de 2008 .CS1 maint: copia archivada como título ( enlace )
- ^ a b Conjunto de procesos de sistemas vivos
- ↑ a b Rimassa, G., Greenwood, D. y Kernland, ME, (2006). Living Systems Technology Suite: un middleware autónomo para la informática autónoma Archivado el 16 de mayo de 2008 en Wayback Machine . Congreso Internacional de Sistemas Autonómicos y Autonómicos (ICAS).
- ^ Fichera, Loris; Marletta, Daniele; Nicosia, Vincenzo; Santoro, Corrado (2011). Obdržálek, David; Gottscheber, Achim (eds.). "Diseño de estrategia de robot flexible utilizando el modelo de creencia-deseo-intención". Investigación y Educación en Robótica - EUROBOT 2010 . Comunicaciones en Informática y Ciencias de la Información. Berlín, Heidelberg: Springer. 156 : 57–71. doi : 10.1007 / 978-3-642-27272-1_5 . ISBN 978-3-642-27272-1.
- ^ Semántica de Gwendolen: 2017
- ^ Lenguajes de programación del agente de verificación de modelos
- ^ MCAPL (Zenodo)
- ^ Brahms
- ^ [2]
Referencias
- AS Rao y MP Georgeff. Modelado de agentes racionales dentro de una arquitectura BDI . En Proceedings of the 2nd International Conference on Principles of Knowledge Representation and Raasoning, páginas 473–484, 1991.
- AS Rao y MP Georgeff. Agentes BDI: de la teoría a la práctica , en las actas de la Primera Conferencia Internacional sobre Sistemas Multiagente (ICMAS'95), San Francisco, 1995.
- Bratman, ME (1999) [1987]. Intención, planes y razón práctica . Publicaciones CSLI . ISBN 1-57586-192-5.
- Wooldridge, M. (2000). Razonamiento sobre agentes racionales . La prensa del MIT . ISBN 0-262-23213-8. Archivado desde el original el 30 de julio de 2010 . Consultado el 15 de junio de 2006 .
- KS Vikhorev, N. Alechina y B. Logan. La arquitectura del agente en tiempo real de ARTS . En las actas del segundo taller sobre lenguajes, metodologías y herramientas de desarrollo para sistemas multiagente (LADS2009). Actas del taller CEUR, Vol-494, Turín, Italia, 2009.