El principio de energía libre es una declaración formal que explica cómo los sistemas vivos y no vivos permanecen en estados estacionarios de no equilibrio al restringirse a un número limitado de estados. Establece que los sistemas minimizan una función de energía libre de sus estados internos, lo que conlleva creencias sobre estados ocultos en su entorno. La minimización implícita de la energía libre está formalmente relacionada con los métodos bayesianos variacionales y fue introducida originalmente por Karl Friston como una explicación de la percepción incorporada en la neurociencia , [1] donde también se conoce como inferencia activa .
El principio de energía libre explica la existencia de un sistema dado modelándolo a través de una manta de Markov que intenta minimizar la diferencia entre su modelo del mundo y su sentido y percepción asociada . Esta diferencia puede describirse como "sorpresa" y se minimiza mediante la corrección continua del modelo mundial del sistema. Como tal, el principio se basa en la idea bayesiana del cerebro como un "motor de inferencia". Friston agregó una segunda ruta a la minimización: la acción. Al cambiar activamente el mundo al estado esperado, los sistemas también pueden minimizar la energía libre del sistema. Friston asume que este es el principio de toda reacción biológica. [2] Friston también cree que su principio se aplica tanto a los trastornos mentales como a la inteligencia artificial . Las implementaciones de IA basadas en el principio de inferencia activa han mostrado ventajas sobre otros métodos. [2]
El principio de la energía libre ha sido criticado por ser muy difícil de entender, incluso para los expertos. [3] Las discusiones sobre el principio también han sido criticadas por invocar supuestos metafísicos muy alejados de una predicción científica comprobable, lo que hace que el principio sea infalsificable. [4] En una entrevista de 2018, Friston reconoció que el principio de energía libre no es propiamente falsable : "el principio de energía libre es lo que es: un principio . Al igual que el principio de acción estacionaria de Hamilton , no se puede falsificar. No se puede refutar. De hecho, no hay mucho que pueda hacer con él, a menos que pregunte si los sistemas medibles se ajustan al principio ". [5]
Fondo
La noción de que los sistemas biológicos autoorganizados , como una célula o un cerebro, pueden entenderse como una minimización de la energía libre variacional, se basa en el trabajo de Helmholtz sobre la inferencia inconsciente [6] y los tratamientos posteriores en psicología [7] y aprendizaje automático. [8] La energía libre variacional es una función de las observaciones y una densidad de probabilidad sobre sus causas ocultas. Esta densidad variacional se define en relación con un modelo probabilístico que genera observaciones predichas a partir de causas hipotetizadas. En este escenario, la energía libre proporciona una aproximación a la evidencia del modelo bayesiano . [9] Por lo tanto, su minimización puede verse como un proceso de inferencia bayesiano. Cuando un sistema realiza observaciones de forma activa para minimizar la energía libre, implícitamente realiza una inferencia activa y maximiza la evidencia de su modelo del mundo.
Sin embargo, la energía libre también es un límite superior en la autoinformación de los resultados, donde el promedio de sorpresa a largo plazo es la entropía. Esto significa que si un sistema actúa para minimizar la energía libre, implícitamente colocará un límite superior en la entropía de los resultados (o estados sensoriales) que muestrea. [10] [11] [se necesita una mejor fuente ]
Relación con otras teorías
La inferencia activa está estrechamente relacionada con el teorema del buen regulador [12] y las explicaciones relacionadas de la autoorganización , [13] [14] como el autoensamblaje , la formación de patrones , la autopoyesis [15] y la practopoyesis . [16] Aborda los temas considerados en cibernética , sinergética [17] y cognición incorporada . Debido a que la energía libre se puede expresar como la energía esperada de las observaciones bajo la densidad variacional menos su entropía, también está relacionada con el principio de máxima entropía . [18] Finalmente, debido a que el tiempo promedio de energía es acción, el principio de mínima energía libre variacional es un principio de mínima acción .
Definición
Definición (formulación continua): la inferencia activa se basa en la tupla,
- Un espacio muestral - de las cuales fluctuaciones aleatorias se dibujan
- Estados ocultos o externos - que causan estados sensoriales y dependen de la acción
- Estados sensoriales - un mapeo probabilístico de la acción y los estados ocultos
- Acción - eso depende de estados sensoriales e internos
- Estados internos - que causan acción y dependen de estados sensoriales
- Densidad generativa - sobre estados sensoriales y ocultos bajo un modelo generativo
- Densidad variacional - sobre estados ocultos que está parametrizado por estados internos
Acción y percepción
El objetivo es maximizar la evidencia del modelo o minimizar la sorpresa . Esto generalmente implica una marginación intratable sobre los estados ocultos, por lo que la sorpresa se reemplaza con un límite superior de energía libre variacional. [8] Sin embargo, esto significa que los estados internos también deben minimizar la energía libre, porque la energía libre es una función de los estados internos y sensoriales:
Esto induce una doble minimización con respecto a la acción y los estados internos que corresponden a la acción y la percepción respectivamente.
Minimización de energía libre
Minimización de energía libre y autoorganización.
La minimización de la energía libre se ha propuesto como un sello distintivo de los sistemas autoorganizados cuando se proyectan como sistemas dinámicos aleatorios . [19] Esta formulación se basa en un manto de Markov (que comprende la acción y los estados sensoriales) que separa los estados internos y externos. Si los estados internos y la acción minimizan la energía libre, entonces colocan un límite superior en la entropía de los estados sensoriales.
Esto se debe a que, bajo supuestos ergódicos , el promedio de sorpresa a largo plazo es la entropía. Este límite resiste una tendencia natural al desorden, del tipo asociado con la segunda ley de la termodinámica y el teorema de fluctuación .
Minimización de energía libre e inferencia bayesiana
Toda la inferencia bayesiana se puede formular en términos de minimización de energía libre; p.ej,. [20] [ verificación fallida ] Cuando la energía libre se minimiza con respecto a los estados internos, la divergencia de Kullback-Leibler entre la densidad variacional y posterior sobre los estados ocultos se minimiza. Esto corresponde a la inferencia bayesiana aproximada , cuando la forma de la densidad variacional es fija, y a la inferencia bayesiana exacta en caso contrario. Por tanto, la minimización de energía libre proporciona una descripción genérica de la inferencia y el filtrado bayesianos (por ejemplo, filtrado de Kalman ). También se utiliza en la selección de modelos bayesianos , donde la energía libre se puede descomponer de manera útil en complejidad y precisión:
Los modelos con energía libre mínima proporcionan una explicación precisa de los datos, bajo costos de complejidad (cf, la navaja de Occam y tratamientos más formales de costos computacionales [21] ). Aquí, la complejidad es la divergencia entre la densidad variacional y las creencias previas sobre los estados ocultos (es decir, los grados de libertad efectivos utilizados para explicar los datos).
Minimización de energía libre y termodinámica
La energía libre variacional es una función teórica de la información y es distinta de la energía libre termodinámica (Helmholtz) . [22] Sin embargo, el término de complejidad de la energía libre variacional comparte el mismo punto fijo que la energía libre de Helmholtz (bajo el supuesto de que el sistema está termodinámicamente cerrado pero no aislado). Esto se debe a que si se suspenden las perturbaciones sensoriales (durante un período de tiempo suficientemente largo), la complejidad se minimiza (porque se puede descuidar la precisión). En este punto, el sistema está en equilibrio y los estados internos minimizan la energía libre de Helmholtz, por el principio de energía mínima . [23]
Teoría de la información y minimización de energía libre
La minimización de energía libre equivale a maximizar la información mutua entre estados sensoriales y estados internos que parametrizan la densidad variacional (para una densidad variacional de entropía fija). [10] [se necesita una mejor fuente ] Esto relaciona la minimización de energía libre con el principio de redundancia mínima [24] y tratamientos relacionados utilizando la teoría de la información para describir el comportamiento óptimo. [25] [26]
Minimización de energía libre en neurociencia
La minimización de la energía libre proporciona una forma útil de formular modelos normativos (óptimos de Bayes) de inferencia neuronal y aprendizaje en condiciones de incertidumbre [27] y, por lo tanto, se suscribe a la hipótesis del cerebro bayesiano . [28] Los procesos neuronales descritos por la minimización de energía libre dependen de la naturaleza de los estados ocultos:que puede comprender variables dependientes del tiempo, parámetros invariantes en el tiempo y la precisión (varianza inversa o temperatura) de fluctuaciones aleatorias. Minimizar variables, parámetros y precisión corresponden a la inferencia, el aprendizaje y la codificación de la incertidumbre, respectivamente.
Inferencia y categorización perceptual
La minimización de la energía libre formaliza la noción de inferencia inconsciente en la percepción [6] [8] y proporciona una teoría normativa (bayesiana) del procesamiento neuronal. La teoría del proceso asociado de la dinámica neuronal se basa en minimizar la energía libre mediante el descenso de gradientes. Esto corresponde al filtrado bayesiano generalizado (donde ~ denota una variable en coordenadas generalizadas de movimiento yes un operador de matriz derivada): [29]
Por lo general, los modelos generativos que definen la energía libre son no lineales y jerárquicos (como las jerarquías corticales en el cerebro). Los casos especiales de filtrado generalizado incluyen el filtrado de Kalman , que es formalmente equivalente a la codificación predictiva [30] , una metáfora popular para el paso de mensajes en el cerebro. Bajo modelos jerárquicos, la codificación predictiva implica el intercambio recurrente de errores de predicción ascendentes (ascendentes) y descendentes (descendentes) [31] que es consistente con la anatomía y fisiología de los sistemas sensoriales [32] y motores. [33]
Aprendizaje perceptivo y memoria.
En la codificación predictiva, la optimización de los parámetros del modelo mediante un descenso de gradiente en la integral de tiempo de la energía libre (acción libre) se reduce a plasticidad asociativa o hebbiana y se asocia con plasticidad sináptica en el cerebro.
Precisión perceptiva, atención y prominencia
La optimización de los parámetros de precisión corresponde a la optimización de la ganancia de los errores de predicción (cf, ganancia de Kalman). En implementaciones neuronalmente plausibles de codificación predictiva, [31] esto corresponde a optimizar la excitabilidad de las células piramidales superficiales y se ha interpretado en términos de ganancia de atención. [34]
Con respecto a la controversia de arriba hacia abajo versus de abajo hacia arriba que se ha abordado como un gran problema abierto de atención, un modelo computacional ha logrado ilustrar la naturaleza circulatoria de la reciprocidad entre los mecanismos de arriba hacia abajo y de abajo hacia arriba. Utilizando un modelo de atención emergente establecido, a saber, SAIM, los autores sugirieron un modelo llamado PE-SAIM que, en contraste con la versión estándar, aborda la atención selectiva desde una postura de arriba hacia abajo. El modelo tiene en cuenta los errores de predicción de reenvío enviados al mismo nivel o un nivel superior para minimizar la función de energía que indica la diferencia entre los datos y su causa o, en otras palabras, entre el modelo generativo y posterior. Para mejorar la validez, también incorporaron la competencia neuronal entre los estímulos en su modelo. Una característica notable de este modelo es la reformulación de la función de energía libre solo en términos de errores de predicción durante el desempeño de la tarea.
dónde, es la función energética total de las redes neuronales que implican, yes el error de predicción entre el modelo generativo (anterior) y el cambio posterior a lo largo del tiempo. [35] ) La comparación de los dos modelos revela una notable similitud entre sus resultados, al tiempo que señala una notable discrepancia, ya que, en la versión estándar del SAIM, el enfoque del modelo está principalmente en las conexiones excitatorias mientras que en el PE-SAIM el Se aprovecharán las conexiones inhibitorias para hacer una inferencia. El modelo también ha demostrado ser adecuado para predecir los datos de EEG y fMRI extraídos de experimentos humanos con una alta precisión. En la misma línea, Yahya et al. también aplicó el principio de energía libre para proponer un modelo computacional para la coincidencia de plantillas en la atención visual selectiva encubierta que se basa principalmente en SAIM. [36] Según este estudio, la energía libre total de todo el espacio de estado se alcanza insertando señales descendentes en las redes neuronales originales, por lo que derivamos un sistema dinámico que comprende errores de predicción tanto de retroalimentación como de retroalimentación.
Inferencia activa
Cuando se aplica el descenso de gradiente a la acción , el control motor puede entenderse en términos de arcos reflejos clásicos que se activan mediante predicciones descendentes (corticoespinales). Esto proporciona un formalismo que generaliza la solución del punto de equilibrio - al problema de los grados de libertad [37] - a las trayectorias de movimiento.
Inferencia activa y control óptimo
La inferencia activa se relaciona con el control óptimo al reemplazar el valor o las funciones de costo para llevar con creencias previas sobre las transiciones o el flujo de estados. [38] Esto aprovecha la estrecha conexión entre el filtrado bayesiano y la solución a la ecuación de Bellman . Sin embargo, la inferencia activa comienza con el flujo (a priori over) que se especifican con escalar y vector funciones de valor del espacio de estados (cf. la descomposición de Helmholtz ). Aquí, es la amplitud de las fluctuaciones aleatorias y el costo es . Los priores fluyen inducir un estado anterior sobre esa es la solución a las ecuaciones de Kolmogorov progresivas apropiadas . [39] En contraste, el control óptimo optimiza el flujo, dada una función de costo, bajo el supuesto de que(es decir, el flujo está libre de rizos o tiene un equilibrio detallado). Por lo general, esto implica resolver ecuaciones de Kolmogorov hacia atrás . [40]
Inferencia activa y teoría de decisiones óptimas (juegos)
Los problemas de decisión óptimos (generalmente formulados como procesos de decisión de Markov parcialmente observables ) se tratan dentro de la inferencia activa absorbiendo funciones de utilidad en creencias previas. En este contexto, los estados que tienen una alta utilidad (bajo costo) son estados que un agente espera ocupar. Al equipar el modelo generativo con estados ocultos que modelan el control, las políticas (secuencias de control) que minimizan la energía libre variacional conducen a estados de alta utilidad. [41]
Neurobiológicamente, se considera que los neuromoduladores como la dopamina informan de la precisión de los errores de predicción al modular la ganancia de las células principales que codifican el error de predicción. [42] Esto está estrechamente relacionado, pero formalmente distinto, al papel de la dopamina en la notificación de errores de predicción per se [43] y cuentas computacionales relacionadas. [44]
Inferencia activa y neurociencia cognitiva
La inferencia activa se ha utilizado para abordar una variedad de cuestiones en neurociencia cognitiva , función cerebral y neuropsiquiatría, que incluyen: observación de la acción, [45] neuronas espejo, [46] movimientos sacádicos y búsqueda visual, [47] [48] movimientos oculares, [49 ] sueño, [50] ilusiones, [51] atención, [34] selección de acciones, [42] conciencia, [52] [53] histeria [54] y psicosis. [55] Las explicaciones de la acción en la inferencia activa a menudo dependen de la idea de que el cerebro tiene "predicciones obstinadas" que no puede actualizar, lo que lleva a acciones que hacen que estas predicciones se hagan realidad. [56]
Ver también
- Percepción de acción específica
- Affordance - Affordance es la posibilidad de una acción sobre un objeto o entorno.
- Autopoiesis - Concepto de sistemas que implica reproducción y mantenimiento automáticos.
- Enfoques bayesianos de la función cerebral
- Teoría de la decisión : estudio de las elecciones de un agente.
- Cognición incorporada - teoría interdisciplinaria
- Energía libre (desambiguación)
- Métricas de información
- Control optimo
- Sistema adaptativo , también conocido como practopoyesis
- Codificación predictiva : teoría de la función cerebral
- Practopoyesis
- Autoorganización : proceso de creación de orden mediante interacciones locales
- Sinergética (Haken)
- Métodos Bayesianos Variacionales
- La filosofía de 'como si'
Referencias
- ^ Friston, Karl; Kilner, James; Harrison, Lee (2006). "Un principio de energía libre para el cerebro" (PDF) . Revista de fisiología-París . Elsevier BV. 100 (1-3): 70-87. doi : 10.1016 / j.jphysparis.2006.10.001 . ISSN 0928-4257 . PMID 17097864 . S2CID 637885 .
- ^ a b Shaun Raviv: el neurocientífico genio que podría tener la clave de la verdadera IA . En: Wired, 13. de noviembre de 2018
- ^ Liberado, Peter (2010). "Research Digest". Neuropsicoanálisis . Informa UK Limited. 12 (1): 103–106. doi : 10.1080 / 15294145.2010.10773634 . ISSN 1529-4145 . S2CID 220306712 .
- ^ Colombo, Matteo; Wright, Cory (10 de septiembre de 2018). "Primeros principios en las ciencias de la vida: el principio de energía libre, organicismo y mecanismo" . Síntesis . Springer Science and Business Media LLC. doi : 10.1007 / s11229-018-01932-w . ISSN 0039-7857 .
- ^ Friston, Karl (2018). "De cochinillas y hombres: un relato bayesiano de la cognición, la vida y la conciencia. Una entrevista con Karl Friston (por Martin Fortier y Daniel Friedman)" . Boletín ALIUS . 2 : 17–43.
- ↑ a b Helmholtz, H. (1866/1962). Sobre las percepciones en general. En Tratado sobre óptica fisiológica (J. Southall, Trans., 3ª ed., Vol. III). Nueva York: Dover.
- ^ Gregory, RL (8 de julio de 1980). "Percepciones como hipótesis" . Transacciones filosóficas de la Royal Society de Londres. B, Ciencias Biológicas . La Royal Society. 290 (1038): 181-197. Código Bibliográfico : 1980RSPTB.290..181G . doi : 10.1098 / rstb.1980.0090 . ISSN 0080-4622 . JSTOR 2395424 . PMID 6106237 .
- ^ a b c Dayan, Peter; Hinton, Geoffrey E .; Neal, Radford M .; Zemel, Richard S. (1995). "La máquina de Helmholtz" (PDF) . Computación neuronal . Prensa del MIT - Revistas. 7 (5): 889–904. doi : 10.1162 / neco.1995.7.5.889 . ISSN 0899-7667 . PMID 7584891 . S2CID 1890561 .
- ^ Beal, MJ (2003). Algoritmos variacionales para inferencia bayesiana aproximada . Doctor. Tesis, University College London.
- ^ a b Karl, Friston (31 de octubre de 2012). "Un principio de energía libre para sistemas biológicos" (PDF) . Entropía . MDPI AG. 14 (11): 2100–2121. Código bibliográfico : 2012Entrp..14.2100K . doi : 10.3390 / e14112100 . ISSN 1099-4300 . PMC 3510653 . PMID 23204829 .
- ^ Colombo, Matteo; Wright, Cory (10 de septiembre de 2018). "Primeros principios en las ciencias de la vida: el principio de energía libre, organicismo y mecanismo" . Síntesis . Springer Science and Business Media LLC. doi : 10.1007 / s11229-018-01932-w . ISSN 0039-7857 .
- ^ Conant, RC y Ashby, RW (1970). Todo buen regulador de un sistema debe ser un modelo de ese sistema . En t. J. Systems Sci. , 1 (2), 89–97.
- ^ Kauffman, S. (1993). Los orígenes del orden: autoorganización y selección en la evolución . Oxford: Prensa de la Universidad de Oxford.
- ^ Nicolis, G. y Prigogine, I. (1977). Autoorganización en sistemas no equilibrados. Nueva York: John Wiley.
- ^ Maturana, HR y Varela, F. (1980). Autopoiesis: la organización de los vivos . En VF Maturana HR (Ed.), Autopoiesis y Cognición. Dordrecht, Holanda: Reidel.
- ↑ Nikolić, D. (2015). Practopoyesis: O cómo la vida fomenta una mente . Revista de biología teórica, 373, 40-61.
- ^ Haken, H. (1983). Sinergética: una introducción. Transición de fase de no equilibrio y autoorganización en física, química y biología (3ª ed.). Berlín: Springer Verlag.
- ^ Jaynes, ET (1957). Teoría de la información y mecánica estadística . Physical Review Series II, 106 (4), 620-30.
- ^ Crauel, H. y Flandoli, F. (1994). Atractores para sistemas dinámicos aleatorios . Probab Theory Relat Fields, 100, 365–393.
- ^ Roweis, S. y Ghahramani, Z. (1999). Una revisión unificadora de modelos lineales gaussianos . Computación neuronal. , 11 (2), 305–45. doi : 10.1162 / 089976699300016674
- ^ Ortega, PA y Braun, DA (2012). La termodinámica como teoría de la toma de decisiones con costos de procesamiento de información . Actas de la Royal Society A, vol. 469, no. 2153 (20120683).
- ^ Evans, DJ (2003). Un teorema de energía libre sin equilibrio para sistemas deterministas . Física molecular, 101, 15551–4.
- ^ Jarzynski, C. (1997). Igualdad de no equilibrio para diferencias de energía libre . Phys. Rev. Lett., 78, 2690.
- ^ Barlow, H. (1961). Posibles principios que subyacen a las transformaciones de los mensajes sensoriales Archivado 2012-06-03 en la Wayback Machine . En W. Rosenblith (Ed.), Comunicación sensorial (págs. 217-34). Cambridge, MA: MIT Press.
- ^ Linsker, R. (1990). Organización neuronal perceptiva: algunos enfoques basados en modelos de redes y teoría de la información . Annu Rev Neurosci. , 13, 257–81.
- ^ Bialek, W., Nemenman, I. y Tishby, N. (2001). Previsibilidad, complejidad y aprendizaje . Computación neural., 13 (11), 2409–63.
- ^ Friston, K. (2010). El principio de la energía libre: ¿una teoría del cerebro unificada? Nat Rev Neurosci. , 11 (2), 127–38.
- ^ Knill, DC y Pouget, A. (2004). El cerebro bayesiano: el papel de la incertidumbre en la codificación y el cálculo neuronales . Trends Neurosci. , 27 (12), 712–9.
- ^ Friston, K., Stephan, K., Li, B. y Daunizeau, J. (2010). Filtrado generalizado . Problemas matemáticos en ingeniería, vol., 2010, 621670
- ^ Rao, RP y Ballard, DH (1999). Codificación predictiva en la corteza visual: una interpretación funcional de algunos efectos de campo receptivo extraclásicos . Nat Neurosci. , 2 (1), 79–87.
- ↑ a b Mumford, D. (1992). Sobre la arquitectura computacional del neocórtex . II. Biol. Cybern. , 66, 241–51.
- ^ Bastos, AM, Usrey, WM, Adams, RA, Mangun, GR, Fries, P. y Friston, KJ (2012). Microcircuitos canónicos para codificación predictiva . Neuron, 76 (4), 695–711.
- ^ Adams, RA, Shipp, S. y Friston, KJ (2013). Predicciones, no comandos: inferencia activa en el sistema motor . Función de la estructura cerebral. , 218 (3), 611–43
- ↑ a b Feldman, H. y Friston, KJ (2010). Atención, incertidumbre y energía libre . Frontiers in Human Neuroscience, 4, 215.
- ^ Abadi KA, Yahya K., Amini M., Heinke D. y Friston, KJ (2019). Retroalimentación excitadora versus inhibitoria en formulaciones bayesianas de construcción de escenas . 16 R. Soc. Interfaz
- ^ Yahya K., Fard PR y Friston, KJ (2014). [DOI: 10.1007 / s10339-013-0597-6 Un enfoque de energía libre para la atención visual: un modelo conexionista]. Proceso cognitivo (2014) 15: 107.
- ^ Feldman, AG y Levin, MF (1995). El origen y uso de marcos de referencia posicionales en el control de motores . Behav Brain Sci. , 18, 723–806.
- ^ Friston, K., (2011). ¿Qué tiene de óptimo el control del motor? . Neuron, 72 (3), 488–98.
- ^ Friston, K. y Ao, P. (2012). Energía libre, valor y atractores . Métodos computacionales y matemáticos en medicina, 2012, 937860.
- ^ Kappen, H., (2005). Integrales de ruta y ruptura de simetría para la teoría de control óptimo . Journal of Statistical Mechanics: Theory and Experiment, 11, p. P11011.
- ^ Friston, K., Samothrakis, S. y Montague, R., (2012). Inferencia activa y agencia: control óptimo sin funciones de coste . Biol. Cybernetics, 106 (8–9), 523–41.
- ↑ a b Friston, KJ Shiner T, FitzGerald T, Galea JM, Adams R, Brown H, Dolan RJ, Moran R, Stephan KE, Bestmann S. (2012). Dopamina, asequibilidad e inferencia activa . PLoS Comput. Biol., 8 (1), pág. e1002327.
- ^ Fiorillo, CD, Tobler, PN y Schultz, W., (2003). Codificación discreta de la probabilidad de recompensa y la incertidumbre por las neuronas de dopamina . Science, 299 (5614), 1898–902.
- ^ Frank, MJ, (2005). Modulación dinámica de la dopamina en los ganglios basales: una explicación neurocomputacional de los déficits cognitivos en el parkinsonismo medicado y no medicado . J Cogn Neurosci., 1 de enero, 51–72.
- ^ Friston, K., Mattout, J. y Kilner, J., (2011). Comprensión de la acción e inferencia activa . Biol Cybern., 104, 137-160.
- ^ Kilner, JM, Friston, KJ y Frith, CD, (2007). Codificación predictiva: descripción del sistema de neuronas espejo . Cogn Process., 8 (3), págs. 159–66.
- ^ Friston, K., Adams, RA, Perrinet, L. y Breakspear, M., (2012). Percepciones como hipótesis: sacádicas como experimentos . Psicol. Delantero, 3, 151.
- ^ Mirza, M., Adams, R., Mathys, C., Friston, K. (2018). La exploración visual humana reduce la incertidumbre sobre el mundo de los sentidos . PLoS One, 13 (1): e0190429
- ^ Perrinet L, Adams R, Friston, K. Inferencia activa, movimientos oculares y retrasos oculomotores . Cibernética biológica, 108 (6): 777-801, 2014.
- ^ Hobson, JA y Friston, KJ, (2012). Conciencia de vigilia y sueño: consideraciones neurobiológicas y funcionales . Prog Neurobiol, 98 (1), págs. 82–98.
- ^ Brown, H. y Friston, KJ (2012). Energía libre e ilusiones: el efecto dulce de maíz . Psychol delantero, 3, 43.
- ^ Rudrauf, David; Bennequin, Daniel; Granic, Isabela; Landini, Gregory; Friston, Karl; Williford, Kenneth (7 de septiembre de 2017). "Un modelo matemático de la conciencia encarnada" (PDF) . Revista de Biología Teórica . 428 : 106-131. doi : 10.1016 / j.jtbi.2017.05.032 . ISSN 0022-5193 . PMID 28554611 .
- ^ K, Williford; D, Bennequin; K, Friston; D, Rudrauf (17 de diciembre de 2018). "El modelo de conciencia proyectiva y la individualidad fenomenal" . Fronteras en psicología . 9 : 2571. doi : 10.3389 / fpsyg.2018.02571 . PMC 6304424 . PMID 30618988 .
- ^ Edwards, MJ, Adams, RA, Brown, H., Pareés, I. y Friston, KJ (2012). Un relato bayesiano de la "histeria" . Brain, 135 (Pt 11): 3495-512.
- ^ Adams RA, Perrinet LU, Friston K. (2012). Seguimiento suave y oclusión visual: inferencia activa y control oculomotor en la esquizofrenia . Más uno. , 12; 7 (10): e47502
- ^ Yon, Daniel; Lange, Floris P. de; Prensa, Clare (2019-01-01). "El cerebro predictivo como un científico obstinado" . Tendencias en ciencias cognitivas . 23 (1): 6–8. doi : 10.1016 / j.tics.2018.10.003 . ISSN 1364-6613 . PMID 30429054 . S2CID 53280000 .
enlaces externos
- Ciencias del comportamiento y del cerebro (por Andy Clark)