En la ciencia cognitiva , una arquitectura cognitiva se refiere tanto a una teoría sobre la estructura de la mente humana como a una instanciación computacional de dicha teoría utilizada en los campos de la inteligencia artificial (IA) y la ciencia cognitiva computacional. [1] [2] Uno de los principales objetivos de una arquitectura cognitiva es resumir los diversos resultados de la psicología cognitiva en un modelo informático integral . [ cita requerida ] Sin embargo, los resultados deben formalizarse en la medida en que puedan ser la base de un programa de computadora . [ cita requerida ]Los modelos formalizados pueden usarse para refinar aún más una teoría comprensiva de la cognición y, más inmediatamente, como un modelo comercialmente utilizable. [ cita requerida ] Las arquitecturas cognitivas exitosas incluyen ACT-R (Adaptive Control of Thought - Rational) y SOAR . [ cita requerida ]
El Instituto de Tecnologías Creativas define la arquitectura cognitiva como: " hipótesis sobre las estructuras fijas que proporcionan una mente, ya sea en sistemas naturales o artificiales, y cómo funcionan juntas, junto con el conocimiento y las habilidades incorporadas en la arquitectura, para producir un comportamiento inteligente en una diversidad de entornos complejos ". [3]
Historia
Herbert A. Simon , uno de los fundadores del campo de la inteligencia artificial, afirmó que la tesis de 1960 de su alumno Ed Feigenbaum , EPAM proporcionaba una posible "arquitectura para la cognición" [4] porque incluía algunos compromisos sobre cómo más de un fundamento aspecto de la mente humana funcionó (en el caso de EPAM, memoria humana y aprendizaje humano ).
John R. Anderson inició una investigación sobre la memoria humana a principios de la década de 1970 y su tesis de 1973 con Gordon H. Bower proporcionó una teoría de la memoria asociativa humana. [5] Incluyó más aspectos de su investigación sobre la memoria a largo plazo y los procesos de pensamiento en esta investigación y finalmente diseñó una arquitectura cognitiva que finalmente llamó ACT . Él y sus estudiantes fueron influenciados por el uso que hizo Allen Newell del término "arquitectura cognitiva". El laboratorio de Anderson usó el término para referirse a la teoría ACT tal como está incorporada en una colección de artículos y diseños (no había una implementación completa de ACT en ese momento).
En 1983, John R. Anderson publicó el trabajo fundamental en esta área, titulado The Architecture of Cognition. [6] Se puede distinguir entre la teoría de la cognición y la implementación de la teoría. La teoría de la cognición esbozó la estructura de las diversas partes de la mente y asumió compromisos con el uso de reglas, redes asociativas y otros aspectos. La arquitectura cognitiva implementa la teoría en las computadoras. El software utilizado para implementar las arquitecturas cognitivas también fueron "arquitecturas cognitivas". Por lo tanto, una arquitectura cognitiva también puede referirse a un plan para agentes inteligentes . Propone procesos computacionales (artificiales) que actúan como ciertos sistemas cognitivos, la mayoría de las veces, como una persona, o actúan de manera inteligente bajo alguna definición. Las arquitecturas cognitivas forman un subconjunto de arquitecturas de agentes generales . El término 'arquitectura' implica un enfoque que intenta modelar no solo el comportamiento, sino también las propiedades estructurales del sistema modelado.
Distinciones
Las arquitecturas cognitivas pueden ser simbólicas , conexionistas o híbridas . [7] [8] [9] Algunas arquitecturas o modelos cognitivos se basan en un conjunto de reglas genéricas , como, por ejemplo, el lenguaje de procesamiento de información (por ejemplo, Soar basado en la teoría unificada de la cognición , o de manera similar ACT-R ). Muchas de estas arquitecturas se basan en la analogía de la mente es como una computadora. Por el contrario, el procesamiento subsimbólico no especifica tales reglas a priori y se basa en propiedades emergentes de las unidades de procesamiento (por ejemplo, nodos). Las arquitecturas híbridas combinan ambos tipos de procesamiento (como CLARION ). Otra distinción es si la arquitectura está centralizada con un correlato neuronal de un procesador en su núcleo, o descentralizada (distribuida). El sabor descentralizado se ha hecho popular bajo el nombre de procesamiento distribuido en paralelo a mediados de la década de 1980 y conexionismo , un excelente ejemplo son las redes neuronales . Otro problema de diseño es, además, una decisión entre estructura modular holística y atomística , o (más concreta) . Por analogía, esto se extiende a cuestiones de representación del conocimiento . [10]
En la IA tradicional , la inteligencia a menudo se programa desde arriba: el programador es el creador, hace algo y lo imbuye con su inteligencia, aunque muchos sistemas de IA tradicionales también se diseñaron para aprender (por ejemplo, mejorar su capacidad para jugar o resolver problemas) . La informática de inspiración biológica , por otro lado, a veces adopta un enfoque más descentralizado de abajo hacia arriba ; Las técnicas bioinspiradas a menudo implican el método de especificar un conjunto de reglas genéricas simples o un conjunto de nodos simples, de cuya interacción surge el comportamiento general. Se espera aumentar la complejidad hasta que el resultado final sea algo marcadamente complejo (ver sistemas complejos). Sin embargo, también es discutible que los sistemas diseñados de arriba hacia abajo sobre la base de observaciones de lo que los humanos y otros animales pueden hacer en lugar de observaciones de los mecanismos cerebrales, también están inspirados biológicamente, aunque de una manera diferente.
Ejemplos notables
En 2010, Samsonovich et al. Llevaron a cabo una revisión exhaustiva de las arquitecturas cognitivas implementadas. [11] y está disponible como repositorio en línea. [12] Algunas arquitecturas cognitivas conocidas, en orden alfabético:
- 4CAPS , desarrollado en la Universidad Carnegie Mellon por Marcel A. Just y Sashank Varma.
- 4D-RCS Reference Model Architecture desarrollada por James Albus en NIST es una arquitectura de modelo de referencia que proporciona una base teórica para diseñar, diseñar e integrar software de sistemas inteligentes para vehículos terrestres no tripulados . [13]
- ACT-R , desarrollado en la Universidad Carnegie Mellon bajo la dirección de John R. Anderson .
- ALifeE , desarrollado por Toni Conde en la Ecole Polytechnique Fédérale de Lausanne .
- ANCS , un modelo cognitivo fue desarrollado por Abdul Salam Mubashar en QUINTELLISENSE.
- Apex desarrollado por Michael Freed en el Centro de Investigación Ames de la NASA .
- OMAPE , desarrollado por Rony Novianto en la Universidad de Tecnología de Sydney .
- Diseño orientado al comportamiento , desarrollado por Joanna J. Bryson en MIT .
- CHREST , desarrollado por Fernand Gobet en la Universidad de Brunel y Peter C. Lane en la Universidad de Hertfordshire .
- CLARION la arquitectura cognitiva, desarrollada bajo Ron Sun en el Instituto Politécnico Rensselaer y la Universidad de Missouri.
- CMAC : el controlador de articulación del modelo cerebeloso (CMAC) es un tipo de red neuronal basada en un modelo del cerebelo de los mamíferos . Es un tipo de memoria asociativa . [14] El CMAC fue propuesto por primera vez como un modelador de funciones para controladores robóticos por James Albus en 1975 y se ha utilizado ampliamente en el aprendizaje por refuerzo y también para la clasificación automatizada en la comunidad de aprendizaje automático .
- CMatie es un agente de software "consciente" desarrollado para gestionar anuncios de seminarios en el Departamento de Ciencias Matemáticas de la Universidad de Memphis . Se basa en una memoria distribuida dispersa aumentada con el uso de algoritmos genéticos como memoria asociativa . [15]
- Copycat , de Douglas Hofstadter y Melanie Mitchell en la Universidad de Indiana .
- DUAL , desarrollado en la Nueva Universidad Búlgara bajo la dirección de Boicho Kokinov .
- DUAL PECCS , desarrollado bajo Antonio Lieto en la Universidad de Turín - Un sistema híbrido de representación y procesamiento del conocimiento integrado con las memorias declarativas y los mecanismos de recuperación del conocimiento de las siguientes arquitecturas cognitivas: ACT-R , CLARION , LIDA y Soar . [dieciséis]
- EPIC, desarrollado por David E. Kieras y David E. Meyer en la Universidad de Michigan .
- FORR desarrollado por Susan L. Epstein en The City University of New York .
- Framsticks : una arquitectura neuronal distribuida conexionista para criaturas o robots simulados, donde se pueden diseñar y desarrollar módulos de redes neuronales compuestas por neuronas heterogéneas (incluidos receptores y efectores).
- GAIuS desarrollado por Sevak Avakians.
- Genie - "Motor de inteligencia en red en evolución general" es una plataforma de computación cognitiva desarrollada por Intelligent Artifacts y construida sobre GAIuS. Su paradigma "sin modelado de datos" y sus sencillas llamadas a API permiten a cualquier persona crear e implementar potentes aplicaciones de inteligencia artificial personalizadas en cuestión de minutos.
- Google DeepMind : la empresa ha creado una red neuronal que aprende a jugar videojuegos de manera similar a los humanos [17] y una red neuronal que puede acceder a una memoria externa como una máquina de Turing convencional , [18] lo que resulta en una computadora que parece imitar posiblemente la memoria a corto plazo del cerebro humano. El algoritmo subyacente se basa en una combinación de Q-learning con una red neuronal recurrente multicapa . [19] (Consulte también una descripción general de Jürgen Schmidhuber sobre trabajos anteriores relacionados con el aprendizaje profundo [20] [21] )
- La memoria asociativa holográfica es parte de la familia de memorias asociativas basadas en correlación , donde la información se asigna a la orientación de fase de números complejos en un plano de Riemann . Se inspiró en el modelo de cerebro holonómico de Karl H. Pribram . Se ha demostrado que los hológrafos son efectivos para tareas de memoria asociativa , generalización y reconocimiento de patrones con atención variable.
- La arquitectura H-Cogaff , que es un caso especial del esquema CogAff . [22] [23]
- La memoria temporal jerárquica es un modelo de aprendizaje automático en línea desarrollado por Jeff Hawkins y Dileep George de Numenta, Inc. que modela algunas de las propiedades estructurales y algorítmicas del neocórtex . HTM es un modelo biomimético basado en la teoría de predicción de la memoria de la función cerebral descrita por Jeff Hawkins en su libro On Intelligence . HTM es un método para descubrir e inferir las causas de alto nivel de los patrones y secuencias de entrada observados, construyendo así un modelo cada vez más complejo del mundo.
- CoJACK Una extensión inspirada en ACT-R del sistema de agentes múltiples JACK que agrega una arquitectura cognitiva a los agentes para provocar comportamientos más realistas (similares a los humanos) en entornos virtuales.
- IDA y LIDA , implementando la teoría del espacio de trabajo global , desarrollada por Stan Franklin en la Universidad de Memphis .
- Memory Networks : creado por el grupo de investigación de Facebook AI en 2014, esta arquitectura presenta una nueva clase de modelos de aprendizaje llamados redes de memoria. Las redes de memoria razonan con componentes de inferencia combinados con un componente de memoria a largo plazo ; aprenden a utilizarlos conjuntamente. La memoria a largo plazo se puede leer y escribir, con el objetivo de usarla para la predicción. [24]
- MANIC (Arquitectura cognitiva) , Michael S. Gashler, Universidad de Arkansas.
- MIDCA (Arquitectura cognitiva) , [25] Michael T. Cox, Universidad Estatal de Wright.
- PreAct , desarrollado bajo el Dr. Norm Geddes en ASI.
- PRODIGY , de Veloso et al. [ cita requerida ]
- 'Sistema de razonamiento procedimental' de PRS , desarrollado por Michael Georgeff y Amy Lansky en SRI International .
- Psi-Theory desarrollada con Dietrich Dörner en la Universidad Otto-Friedrich en Bamberg , Alemania .
- R-CAST , desarrollado en la Universidad Estatal de Pensilvania .
- Sigma , desarrollado en la Universidad del Sur de California 's Instituto de Tecnologías Creativas [26]
- Spaun (Red Unificada de Arquitectura de Punteros Semánticos) - por Chris Eliasmith en el Centro de Neurociencia Teórica de la Universidad de Waterloo - Spaun es una red de 2,500,000 neuronas de picos artificiales , que usa grupos de estas neuronas para completar tareas cognitivas a través de una coordinación flexible. Los componentes del modelo se comunican usando neuronas de picos que implementan representaciones neuronales llamadas "punteros semánticos" usando varios patrones de activación. Los punteros semánticos pueden entenderse como elementos de un espacio vectorial neuronal comprimido. [27]
- Soar , desarrollado bajo Allen Newell y John Laird en la Universidad Carnegie Mellon y la Universidad de Michigan .
- Sociedad de la mente y su sucesora la máquina de la emoción propuesta por Marvin Minsky .
- Pentti Kanerva en el Centro de Investigación Ames de la NASA propuso la memoria distribuida dispersa como una arquitectura realizable que podría almacenar patrones grandes y recuperarlos basándose en coincidencias parciales con patrones que representan entradas sensoriales actuales. [28] Esta memoria exhibe comportamientos, tanto en teoría como en experimentos, que se asemejan a los que las máquinas no habían abordado previamente; por ejemplo, reconocimiento rápido de rostros u olores, descubrimiento de nuevas conexiones entre ideas aparentemente no relacionadas, etc. La memoria distribuida escasa se usa para almacenar y recuperar grandes cantidades ( bits ) de información sin centrarse en la precisión sino en la similitud de la información. [29] Hay algunas aplicaciones recientes en la navegación de robots [30] y la manipulación de robots basada en la experiencia. [31]
- Sparsey by Neurithmic Systems es un marco de reconocimiento de eventos a través de códigos distribuidos dispersos jerárquicos profundos [32]
- Arquitecturas de subsunción , desarrolladas, por ejemplo, por Rodney Brooks (aunque se podría argumentar si son cognitivas ).
- QuBIC: Arquitectura cognitiva cuántica y bioinspirada para la conciencia de las máquinas desarrollada por Wajahat M. Qazi y Khalil Ahmad en el Departamento de Ciencias de la Computación, Universidad GC Lahore Pakistán y Escuela de Ciencias de la Computación, NCBA & E Lahore, Pakistán
- TinyCog, una implementación minimalista de código abierto de una arquitectura cognitiva basada en las ideas del razonamiento basado en escenas
- Vector LIDA es una variación de la arquitectura cognitiva LIDA que emplea vectores de Representación Compuesta Modular (MCR) de alta dimensión como su modelo de representación principal y Memoria Distribuida Integer Sparse [33] como su tecnología de implementación de memoria principal. Las ventajas de este nuevo modelo incluyen un modelo más realista y biológicamente plausible, una mejor integración con su memoria episódica , una mejor integración con otros procesos perceptivos de bajo nivel (como los sistemas de aprendizaje profundo ), una mejor escalabilidad y mecanismos de aprendizaje más fáciles. [34]
- VisNet de Edmund Rolls en el Oxford Center for Computational Neuroscience: un modelo de jerarquía de características en el que se pueden construir representaciones invariantes mediante el aprendizaje autoorganizado basado en las estadísticas temporales y espaciales de la información visual producida por los objetos a medida que se transforman en el mundo. [35]
Ver también
- Cerebro artificial
- Conciencia artificial
- Agente autónomo
- Arquitecturas cognitivas de inspiración biológica
- Proyecto Blue Brain
- Iniciativa BRAIN
- Comparación de arquitectura cognitiva
- Computación cognitiva
- Ciencia cognitiva
- Razonamiento de sentido común
- Arquitectura de Computadores
- Espacio conceptual
- Aprendizaje profundo
- Google Brain
- Esquema de imagen
- Nivel de conocimiento
- Neocognitron
- Correlatos neuronales de la conciencia
- Arquitectura Pandemonium
- Realidad simulada
- Simulación social
- Teoría unificada de la cognición
- Aprendizaje de idiomas sin fin
- Cerebro bayesiano
- Sentido común de mente abierta
Referencias
- ↑ Lieto, Antonio (2021). Diseño cognitivo para mentes artificiales . Londres, Reino Unido: Routledge, Taylor & Francis. ISBN 9781138207929.
- ^ Lieto, Antonio; Bhatt, Mehul; Oltramari, Alessandro; Vernon, David (mayo de 2018). "El papel de las arquitecturas cognitivas en la inteligencia artificial general" (PDF) . Investigación de sistemas cognitivos . 48 : 1-3. doi : 10.1016 / j.cogsys.2017.08.003 . hdl : 2318/1665249 . S2CID 36189683 .
- ^ Consulte el sitio web de ICT: http://cogarch.ict.usc.edu/
- ^ https://saltworks.stanford.edu/catalog/druid:st035tk1755
- ^ " Clásico de citas de esta semana: Anderson JR y Bower G H. Memoria asociativa humana. Washington ", en: CC. Nr. 52 24-31 de diciembre de 1979.
- ^ John R. Anderson . La arquitectura de la cognición , 1983/2013.
- ^ Vernon, David; Metta, Giorgio; Sandini, Giulio (abril de 2007). "Una encuesta de sistemas cognitivos artificiales: implicaciones para el desarrollo autónomo de capacidades mentales en agentes computacionales". Transacciones IEEE sobre Computación Evolutiva . 11 (2): 151–180. doi : 10.1109 / TEVC.2006.890274 . S2CID 9709702 .
- ^ Lieto, Antonio; Chella, Antonio; Frixione, Marcello (enero de 2017). "Espacios conceptuales para arquitecturas cognitivas: una lengua franca para diferentes niveles de representación". Arquitecturas cognitivas de inspiración biológica . 19 : 1–9. arXiv : 1701.00464 . Código bibliográfico : 2017arXiv170100464L . doi : 10.1016 / j.bica.2016.10.005 . S2CID 6509455 .
- ^ Lieto, Antonio; Lebiere, Christian; Oltramari, Alessandro (mayo de 2018). "El nivel de conocimiento en arquitecturas cognitivas: limitaciones actuales y posibles desarrollos" (PDF) . Investigación de sistemas cognitivos . 48 : 39–55. doi : 10.1016 / j.cogsys.2017.05.001 . hdl : 2318/1665207 . S2CID 206868967 .
- ^ Lieto, Antonio; Lebiere, Christian; Oltramari, Alessandro (mayo de 2018). "El nivel de conocimiento en arquitecturas cognitivas: limitaciones actuales y posibles desarrollos" (PDF) . Investigación de sistemas cognitivos . 48 : 39–55. doi : 10.1016 / j.cogsys.2017.05.001 . hdl : 2318/1665207 . S2CID 206868967 .
- ^ Samsonovich, Alexei V. "Hacia un catálogo unificado de arquitecturas cognitivas implementadas". BICA 221 (2010): 195-244.
- ^ "Repositorio comparativo de arquitecturas cognitivas" .
- ^ Douglas Whitney Gage (2004). Robots móviles XVII: 26-28 de octubre de 2004, Filadelfia, Pensilvania, EE . UU . Sociedad de Ingenieros de Instrumentación Fotoóptica. página 35.
- ^ Albus, James S. (agosto de 1979). "Mecanismos de planificación y resolución de problemas en el cerebro". Biociencias matemáticas . 45 (3–4): 247–293. doi : 10.1016 / 0025-5564 (79) 90063-4 .
- ^ Anwar, Ashraf; Franklin, Stan (diciembre de 2003). "Memoria distribuida escasa para agentes de software 'conscientes'". Investigación de sistemas cognitivos . 4 (4): 339–354. doi : 10.1016 / S1389-0417 (03) 00015-9 . S2CID 13380583 .
- ^ Lieto, Antonio; Radicioni, Daniele P .; Rho, Valentina (25 de junio de 2016). "Dual PECCS: un sistema cognitivo para la representación conceptual y categorización" (PDF) . Revista de Inteligencia Artificial Experimental y Teórica . 29 (2): 433–452. doi : 10.1080 / 0952813X.2016.1198934 . hdl : 2318/1603656 . S2CID 6515727 .
- ^ Mnih, Volodymyr; Kavukcuoglu, Koray; Silver, David; Graves, Alex; Antonoglou, Ioannis; Wierstra, Daan; Riedmiller, Martin (2013). "Jugar a Atari con aprendizaje de refuerzo profundo". arXiv : 1312,5602 [ cs.LG ].
- ^ Mnih, Volodymyr; Kavukcuoglu, Koray; Silver, David; Graves, Alex; Antonoglou, Ioannis; Wierstra, Daan; Riedmiller, Martin (2014). "Máquinas de Turing neuronales". arXiv : 1410,5401 [ cs.NE ].
- ^ Mnih, Volodymyr; Kavukcuoglu, Koray; Silver, David; Rusu, Andrei A .; Veness, Joel; Bellemare, Marc G .; Graves, Alex; Riedmiller, Martin; Fidjeland, Andreas K .; Ostrovski, Georg; Petersen, Stig; Beattie, Charles; Sadik, Amir; Antonoglou, Ioannis; Rey, Helen; Kumaran, Dharshan; Wierstra, Daan; Legg, Shane; Hassabis, Demis (25 de febrero de 2015). "Control a nivel humano a través del aprendizaje por refuerzo profundo". Naturaleza . 518 (7540): 529–533. Código Bib : 2015Natur.518..529M . doi : 10.1038 / nature14236 . PMID 25719670 . S2CID 205242740 .
- ^ "Documento de la naturaleza de DeepMind y trabajos relacionados anteriores" .
- ^ Schmidhuber, Jürgen; Kavukcuoglu, Koray; Silver, David; Graves, Alex; Antonoglou, Ioannis; Wierstra, Daan; Riedmiller, Martin (2015). "Aprendizaje profundo en redes neuronales: una visión general". Redes neuronales . 61 : 85-117. arXiv : 1404,7828 . doi : 10.1016 / j.neunet.2014.09.003 . PMID 25462637 . S2CID 11715509 .
- ^ Taylor, JH; Sayda, AF (2005). "Una Arquitectura Inteligente para el Control Integrado y la Gestión de Activos para Procesos Industriales". Actas del Simposio Internacional IEEE 2005 sobre, Conferencia Mediterránea sobre Control y Automatización Control Inteligente, 2005 . págs. 1397–1404. doi : 10.1109 / .2005.1467219 . ISBN 0-7803-8937-9. S2CID 16082600 .
- ^ Un marco para comparar arquitecturas de agentes , Aaron Sloman y Matthias Scheutz, en Proceedings of the UK Workshop on Computational Intelligence, Birmingham, Reino Unido, septiembre de 2002.
- ^ Weston, Jason, Sumit Chopra y Antoine Bordes. "Redes de memoria". preimpresión de arXiv arXiv: 1410.3916 (2014).
- ^ Cox, Michael T. (23 de diciembre de 2017). "Un modelo de planificación, acción e interpretación con el razonamiento de objetivos" (PDF) . cogsys .
- ^ "Arquitectura cognitiva" .
- ^ Eliasmith, C .; Stewart, TC; Choo, X .; Bekolay, T .; DeWolf, T .; Tang, Y .; Rasmussen, D. (29 de noviembre de 2012). "Un modelo a gran escala del funcionamiento del cerebro". Ciencia . 338 (6111): 1202–1205. Código bibliográfico : 2012Sci ... 338.1202E . doi : 10.1126 / science.1225266 . PMID 23197532 . S2CID 1673514 .
- ^ Denning, Peter J. "Memoria distribuida escasa". (1989) .Url: https://ntrs.nasa.gov/archive/nasa/casi.ntrs.nasa.gov/19920002425.pdf
- ^ Kanerva, Pentti (1988). Memoria distribuida escasa . La prensa del MIT. ISBN 978-0-262-11132-4.
- ^ Mendes, Mateus; Crisostomo, Manuel; Coimbra, A. Paulo (2008). "Navegación del robot utilizando una memoria distribuida escasa". 2008 Conferencia Internacional IEEE sobre Robótica y Automatización . págs. 53–58. doi : 10.1109 / ROBOT.2008.4543186 . ISBN 978-1-4244-1646-2. S2CID 10977460 .
- ^ Jockel, S .; Lindner, F .; Jianwei Zhang (2009). "Memoria distribuida escasa para la manipulación de robots basada en la experiencia". 2008 Conferencia Internacional IEEE sobre Robótica y Biomimética . págs. 1298–1303. doi : 10.1109 / ROBIO.2009.4913187 . ISBN 978-1-4244-2678-2. S2CID 16650992 .
- ^ Rinkus, Gerard J. (15 de diciembre de 2014). "Sparsey ™: reconocimiento de eventos a través de códigos distribuidos dispersos jerárquicos profundos" . Fronteras en neurociencia computacional . 8 : 160. doi : 10.3389 / fncom.2014.00160 . PMC 4266026 . PMID 25566046 .
- ^ Franklin, Stan; Snaider, Javier (16 de mayo de 2012). "Integer Sparse Distributed Memory" . Vigésimo Quinto Congreso Internacional FLAIRS .
- ^ Snaider, Javier; Franklin, Stan (2014). "Vector LIDA" . Procedia Informática . 41 : 188-203. doi : 10.1016 / j.procs.2014.11.103 .
- ^ Rolls, Edmund T. (2012). "Objeto visual invariable y reconocimiento facial: bases neurales y computacionales, y un modelo, VisNet" . Fronteras en neurociencia computacional . 6 : 35. doi : 10.3389 / fncom.2012.00035 . PMC 3378046 . PMID 22723777 .
enlaces externos
- Medios relacionados con la arquitectura cognitiva en Wikimedia Commons
- Citas relacionadas con la arquitectura cognitiva en Wikiquote