Red neuronal en aumento


Las redes neuronales spiking ( SNN ) son redes neuronales artificiales que imitan más de cerca las redes neuronales naturales. [1] Además del estado neuronal y sináptico , los SNN incorporan el concepto de tiempo en su modelo operativo . La idea es que las neuronas en el SNN no transmiten información en cada ciclo de propagación (como sucede con las redes típicas de perceptrones multicapa ), sino que transmiten información solo cuando un potencial de membrana - una cualidad intrínseca de la neurona relacionada con la carga eléctrica de su membrana - alcanza un valor específico, llamado umbral. Cuando el potencial de membrana alcanza el umbral, la neurona se dispara y genera una señal que viaja a otras neuronas que, a su vez, aumentan o disminuyen sus potenciales en respuesta a esta señal. Un modelo de neurona que se activa en el momento del cruce del umbral también se denomina modelo de neurona de picos . [2]

El insecto está controlado por una red neuronal de púas para encontrar un objetivo en un terreno desconocido.

El modelo de neuronas con picos más prominente es el modelo de integración y disparo con fugas . En el modelo de integración y disparo, el nivel de activación momentánea (modelado como una ecuación diferencial ) normalmente se considera que es el estado de la neurona, con picos entrantes que empujan este valor hacia arriba o hacia abajo, hasta que el estado eventualmente decae o - si el disparo se alcanza el umbral - la neurona se dispara. Después de disparar, la variable de estado se restablece a un valor más bajo.

Existen varios métodos de decodificación para interpretar el tren de picos salientes como un número de valor real, dependiendo de la frecuencia de picos (código de velocidad), el tiempo hasta el primer pico después de la estimulación o el intervalo entre picos.

Modelo de neurona pulsada
Sinapsis artificiales basadas en FTJ

Las redes neuronales artificiales multicapa suelen estar completamente conectadas , recibiendo información de cada neurona en la capa anterior y señalizando cada neurona en la capa siguiente. Aunque estas redes han logrado avances en muchos campos, son biológicamente inexactas y no imitan el mecanismo de funcionamiento de las neuronas en el cerebro de un ser vivo. [3]

El modelo de Hodgkin-Huxley de inspiración biológica de una neurona en punta se propuso en 1952. Este modelo describe cómo se inician y propagan los potenciales de acción . La comunicación entre neuronas, que requiere el intercambio de neurotransmisores químicos en la brecha sináptica , se describe en varios modelos, como el modelo de integración y disparo , el modelo de FitzHugh-Nagumo (1961-1962) y el modelo de Hindmarsh-Rose (1984) . El modelo de integración y disparo con fugas (o un derivado) se usa comúnmente ya que es más fácil de calcular que el modelo de Hodgkin-Huxley. [4]

En julio de 2019, en la cumbre de la Iniciativa de Resurgimiento de la Electrónica de DARPA , Intel presentó un sistema neuromórfico de 8 millones de neuronas que comprende 64 chips de investigación Loihi. [5]

Desde la perspectiva de la teoría de la información , el problema consiste en explicar cómo la información se codifica y decodifica mediante una serie de trenes de pulsos, es decir, potenciales de acción. Por tanto, una cuestión fundamental de la neurociencia es determinar si las neuronas se comunican mediante una tasa o un código temporal . [6] La codificación temporal sugiere que una sola neurona con picos puede reemplazar cientos de unidades ocultas en una red neuronal sigmoidea . [1]

Una red neuronal con picos considera información temporal. La idea es que no todas las neuronas se activan en cada iteración de propagación (como es el caso en una red típica de perceptrones multicapa ), sino solo cuando su potencial de membrana alcanza un cierto valor. Cuando se activa una neurona, produce una señal que se transmite a las neuronas conectadas, aumentando o disminuyendo su potencial de membrana.

En una red neuronal con picos, el estado actual de la neurona se define como su nivel de activación (modelado como una ecuación diferencial). Un pulso de entrada hace que el valor del estado actual aumente durante un período de tiempo y luego disminuya gradualmente. Se han elaborado esquemas de codificación para interpretar estas secuencias de impulsos de salida como un número, teniendo en cuenta tanto la frecuencia de impulsos como el intervalo de impulsos. Se puede establecer con precisión un modelo de red neuronal basado en el tiempo de generación de pulsos. La codificación de picos se adopta en esta nueva red neuronal. Usando el tiempo exacto de ocurrencia del pulso, una red neuronal puede emplear más información y ofrecer una mayor potencia de cálculo.

Las redes neuronales acopladas por pulsos (PCNN) a menudo se confunden con los SNN. Un PCNN puede verse como una especie de SNN.

El enfoque SNN utiliza una salida binaria (señal / sin señal) en lugar de la salida continua de las ANN tradicionales. Además, los entrenamientos de pulso no son fáciles de interpretar. Pero el entrenamiento del pulso aumenta la capacidad de procesar datos espacio-temporales (o clasificación continua de datos sensoriales del mundo real). [7] El espacio se refiere al hecho de que las neuronas se conectan solo a las neuronas cercanas para que puedan procesar bloques de entrada por separado (similar a la CNN que usa filtros). El tiempo se refiere al hecho de que el entrenamiento de pulsos se produce a lo largo del tiempo, de modo que la información perdida en la codificación binaria se puede recuperar de la información de tiempo. Esto evita la complejidad adicional de una red neuronal recurrente (RNN). Resulta que las neuronas de impulso son unidades computacionales más poderosas que las neuronas artificiales tradicionales. [8]

SNN es teóricamente más poderoso que las redes de segunda generación, sin embargo, los problemas de capacitación de SNN y los requisitos de hardware limitan su uso. Aunque se encuentran disponibles métodos de aprendizaje biológico no supervisado, como el aprendizaje de Hebbian y el STDP , ningún método de entrenamiento supervisado eficaz es adecuado para SNN que pueda proporcionar un mejor rendimiento que las redes de segunda generación. [ Cita requerida ] activación basada Espiga de SNN no es diferenciable por lo que es difícil de desarrollar descenso de gradiente métodos de entrenamiento basados para realizar el error de propagación hacia atrás , aunque algunos algoritmos recientes como NormAD [9] y de múltiples capas NormAD [10] buen rendimiento de la formación han demostrado a través de una aproximación adecuada del gradiente de activación basada en picos.

Las SNN tienen costos computacionales mucho mayores para simular modelos neuronales realistas que las ANN tradicionales.

En principio, las SNN pueden aplicarse a las mismas aplicaciones que las ANN tradicionales. [11] Además, los SNN pueden modelar el sistema nervioso central de organismos biológicos, como un insecto que busca alimento sin conocimiento previo del medio ambiente. [12] Debido a su relativo realismo, se pueden utilizar para estudiar el funcionamiento de circuitos neuronales biológicos . Partiendo de una hipótesis sobre la topología de un circuito neuronal biológico y su función, las grabaciones de este circuito se pueden comparar con la salida del SNN correspondiente, evaluando la plausibilidad de la hipótesis. Sin embargo, hay una falta de mecanismos de entrenamiento efectivos para los SNN, que pueden ser inhibidores para algunas aplicaciones, incluidas las tareas de visión por computadora.

A partir de 2019, las SNN se quedan atrás de las ANN en términos de precisión, pero la brecha está disminuyendo y ha desaparecido en algunas tareas. [13]

Una amplia gama de software de aplicación puede simular SNN. Este software se puede clasificar según sus usos:

Simulación SNN

Aprendizaje no supervisado con sinapsis ferroeléctricas

Estos simulan modelos neuronales complejos con un alto nivel de detalle y precisión. Las redes grandes suelen requerir un procesamiento prolongado. Los candidatos incluyen: [14]

  • GENESIS (el Sistema General de Simulación Neural [15] ) - desarrollado en el laboratorio de James Bower en Caltech ;
  • NEURON : desarrollado principalmente por Michael Hines, John W. Moore y Ted Carnevale en la Universidad de Yale y la Universidad de Duke ;
  • Brian , desarrollado por Romain Brette y Dan Goodman en la École Normale Supérieure ;
  • NEST : desarrollado por la Iniciativa NEST;
  • BindsNET: desarrollado por el laboratorio de Sistemas dinámicos y neuronales de inspiración biológica (BINDS) de la Universidad de Massachusetts Amherst . [dieciséis]
  • SpykeTorch: un marco basado en PyTorch optimizado específicamente para SNN convolucionales con como máximo un pico por neurona. Funciona con GPU. [17]

Predecir el aprendizaje de STDP con sinapsis ferroeléctricas
Modelo de enrutamiento de malla de neurona a neurona

Las futuras arquitecturas neuromórficas [18] comprenderán miles de millones de tales nanosinapsis, que requieren una comprensión clara de los mecanismos físicos responsables de la plasticidad. Se han utilizado sistemas experimentales basados ​​en uniones de túneles ferroeléctricos para demostrar que el STDP puede aprovecharse de la conmutación de polarización heterogénea. A través de imágenes de sonda de exploración combinadas, transporte eléctrico y dinámica molecular a escala atómica, las variaciones de conductancia pueden modelarse mediante la inversión de dominios dominada por nucleación. Las simulaciones muestran que las matrices de nanosinapsis ferroeléctricas pueden aprender de manera autónoma a reconocer patrones de una manera predecible, abriendo el camino hacia el aprendizaje no supervisado . [19]

Aprendizaje no supervisado con sinapsis ferroeléctricas
  • Akida NSoC de Brainchip afirma tener efectivamente 1,2 millones de neuronas y 10 mil millones de sinapsis [20]
  • Neurogrid es una placa que puede simular redes neuronales con picos directamente en el hardware. (Universidad Stanford)
  • SpiNNaker (Spiking Neural Network Architecture) utiliza procesadores ARM como los componentes básicos de una plataforma informática masivamente paralela basada en un modelo talamocortical de seis capas . ( Universidad de Manchester ) [21] El sistema SpiNNaker se basa en modelos numéricos que se ejecutan en tiempo real en chips multinúcleo digitales personalizados que utilizan la arquitectura ARM . Proporciona chips digitales personalizados, cada uno con dieciocho núcleos y una RAM local compartida de 128 Mbyte, con un total de más de 1.000.000 de núcleos. [22] Un solo chip puede simular 16.000 neuronas con ocho millones de sinapsis de plástico ejecutándose en tiempo real. [23]
  • TrueNorth es un procesador que contiene 5.400 millones de transistores que consume solo 70 milivatios ; la mayoría de los procesadores de las computadoras personales contienen aproximadamente 1.400 millones de transistores y requieren 35 vatios o más. IBM se refiere al principio de diseño detrás de TrueNorth como computación neuromórfica . Su propósito principal es el reconocimiento de patrones. Si bien los críticos dicen que el chip no es lo suficientemente poderoso, sus partidarios señalan que esta es solo la primera generación, y las capacidades de las iteraciones mejoradas se harán evidentes. (IBM) [24]
  • El Procesador Asíncrono Neuromórfico Dinámico (DYNAP) [25] combina circuitos analógicos sub-umbral no homogéneos, lentos, de baja potencia y circuitos digitales programables rápidos. Es compatible con redes neuronales reconfigurables, de uso general y en tiempo real de neuronas en punta. Esto permite la implementación de arquitecturas de procesamiento neuronal basadas en picos en tiempo real [26] [27] en las que la memoria y el cálculo están co-localizados. Resuelve el problema del cuello de botella de von Neumann y permite la comunicación multiplexada en tiempo real de eventos de picos para la realización de redes masivas. Redes recurrentes, redes de alimentación hacia adelante, redes convolucionales, redes atractor , redes eco-estatales , redes profundas , y las redes de fusión de sensores son algunas de las posibilidades. [28]
Microarquitectura básica de alto nivel
  • Loihi es un chip Intel de 14 nm que ofrece 128 núcleos y 130.000 neuronas en un paquete de 60 mm. [29] Integra una amplia gama de características, como conectividad jerárquica, compartimentos dendríticos, retrasos sinápticos y reglas de aprendizaje sináptico programables. [30] Al ejecutar una forma convolucional de picos del algoritmo localmente competitivo, Loihi puede resolver problemas de optimización LASSO con un producto de retardo de energía superior en más de tres órdenes de magnitud en comparación con los solucionadores convencionales que se ejecutan en un isoproceso / voltaje / área de CPU. [31] Un sistema de investigación de 64 Loihi ofrece un sistema neuromórfico de 8 millones de neuronas. Loihi es aproximadamente 1,000 veces más rápido que una CPU y 10,000 veces más eficiente en términos de energía. [5]
  • BrainScaleS se basa en emulaciones físicas de modelos de neuronas, sinapsis y plasticidad con conectividad digital, que se ejecutan hasta diez mil veces más rápido que en tiempo real. Fue desarrollado por el Proyecto Europeo del Cerebro Humano . [22] El sistema BrainScaleS contiene 20 obleas de silicio de 8 pulgadas en tecnología de proceso de 180 nm. Cada oblea incorpora 50 x 106 sinapsis de plástico y 200.000 neuronas biológicamente realistas. El sistema no ejecuta código preprogramado sino que evoluciona según las propiedades físicas de los dispositivos electrónicos, funcionando hasta 10 mil veces más rápido que el tiempo real. [23]

Las capacidades de clasificación de las redes de picos entrenadas de acuerdo con métodos de aprendizaje no supervisados [32] se han probado en conjuntos de datos de referencia comunes, como Iris, Wisconsin Breast Cancer o Statlog Landsat. [33] [34] [35] Se han utilizado varios enfoques para la codificación de información y el diseño de redes. Por ejemplo, una red feedforward de 2 capas para la agrupación y clasificación de datos. Con base en la idea propuesta en Hopfield (1995), los autores implementaron modelos de campos receptivos locales que combinan las propiedades de las funciones de base radial (RBF) y neuronas de punta para convertir señales de entrada (datos clasificados) que tienen una representación de punto flotante en una representación de punta. [36] [37]

  • CoDi
  • Arquitectura cognitiva
  • Mapa cognitivo
  • Computadora cognitiva
  • Neurociencia Computacional
  • Codificación neuronal
  • Correlato neuronal
  • Decodificación neuronal
  • Neuroetología
  • Neuroinformática
  • Modelos de computación neuronal
  • Percepción de movimiento
  • Neurociencia de sistemas

  1. ↑ a b Maass, Wolfgang (1997). "Redes de neuronas en punta: la tercera generación de modelos de redes neuronales". Redes neuronales . 10 (9): 1659–1671. doi : 10.1016 / S0893-6080 (97) 00011-7 . ISSN  0893-6080 .
  2. ^ Gerstner, Wulfram. (2002). Modelos de neuronas punzantes: neuronas individuales, poblaciones, plasticidad . Kistler, Werner M., 1969-. Cambridge, Reino Unido: Cambridge University Press. ISBN 0-511-07817-X. OCLC  57417395 .
  3. ^ "Spiking Neural Networks, la próxima generación de aprendizaje automático" . 16 de julio de 2019.
  4. ^ Lee, Dayeol; Lee, Gwangmu; Kwon, Dongup; Lee, Sunghwa; Kim, Youngsok; Kim, Jangwoo (junio de 2018). "Flexon: una neurona digital flexible para simulaciones de redes neuronales de picos eficientes". 2018 ACM / IEEE 45th Annual International Symposium on Computer Architecture (ISCA) : 275–288. doi : 10.1109 / isca.2018.00032 . ISBN 978-1-5386-5984-7. S2CID  50778421 .
  5. ^ a b https://spectrum.ieee.org/tech-talk/robotics/artificial-intelligence/intels-neuromorphic-system-hits-8-million-neurons-100-million-coming-by-2020.amp.html El sistema neuromórfico de Intel llega a 8 millones de neuronas, 100 millones para 2020
  6. ^ Wulfram Gerstner (2001). "Spiking Neurons" . En Wolfgang Maass; Christopher M. Bishop (eds.). Redes neuronales pulsadas . MIT Press. ISBN 978-0-262-63221-8.
  7. ^ https://repository.tudelft.nl/islandora/object/uuid%3A40a045d1-e58c-4587-b83a-96ad6daeb80d#:~:text=Neurons%20in%20Spiking%20Neural%20Networkscommunicate%2C%20thus%20mimicking% 20the% 20brain. & Text = SNNs% 20have% 20the% 20benefit% 20to, Artificial% 20Neural% 20Networks% 20
  8. ^ Maass, Wolfgang (1997). "Redes de neuronas en punta: la tercera generación de modelos de redes neuronales". Redes neuronales . 10 (9): 1659–1671. doi : 10.1016 / S0893-6080 (97) 00011-7 .
  9. ^ Anwani, Navin; Rajendran, Bipin (julio de 2015). "NormAD - regla de aprendizaje supervisado basado en el descenso aproximado normalizado para las neuronas en punta". Conferencia conjunta internacional de 2015 sobre redes neuronales (IJCNN) : 1–8. doi : 10.1109 / IJCNN.2015.7280618 . ISBN 978-1-4799-1960-4. S2CID  14461638 .
  10. ^ Anwani, Navin; Rajendran, Bipin (7 de marzo de 2020). "Entrenamiento de redes neuronales de picos multicapa utilizando la retropropagación de errores espaciotemporales basados ​​en NormAD" . Neurocomputación . 380 : 67–77. arXiv : 1811.10678 . doi : 10.1016 / j.neucom.2019.10.104 . ISSN  0925-2312 . S2CID  53762477 .
  11. ^ Alnajjar, F .; Murase, K. (2008). "Una red neuronal de picos tipo Aplysia simple para generar comportamiento adaptativo en robots autónomos". Comportamiento adaptativo . 14 (5): 306–324. doi : 10.1177 / 1059712308093869 . S2CID  16577867 .
  12. ^ X Zhang; Z Xu; C Henriquez; S Ferrari (diciembre de 2013). Entrenamiento indirecto basado en picos de un insecto virtual controlado por red neuronal con picos . Decisión y control de IEEE . págs. 6798–6805. CiteSeerX  10.1.1.671.6351 . doi : 10.1109 / CDC.2013.6760966 . ISBN 978-1-4673-5717-3. S2CID  13992150 .
  13. ^ Tavanaei, Amirhossein; Ghodrati, Masoud; Kheradpisheh, Saeed Reza; Masquelier, Timothée; Maida, Anthony (marzo de 2019). "Aprendizaje profundo en redes neuronales de picos". Redes neuronales . 111 : 47–63. arXiv : 1804.08150 . doi : 10.1016 / j.neunet.2018.12.002 . PMID  30682710 . S2CID  5039751 .
  14. ^ Abbott, LF; Nelson, Sacha B. (noviembre de 2000). "Plasticidad sináptica: domesticar a la bestia". Neurociencia de la naturaleza . 3 (S11): 1178-1183. doi : 10.1038 / 81453 . PMID  11127835 . S2CID  2048100 .
  15. ^ Atiya, AF; Parlos, AG (mayo de 2000). "Nuevos resultados en el entrenamiento de redes recurrentes: unificando los algoritmos y acelerando la convergencia". Transacciones IEEE en redes neuronales . 11 (3): 697–709. doi : 10.1109 / 72.846741 . PMID  18249797 .
  16. ^ "Hananel-Hazan / bindsnet: simulación de redes neuronales de picos (SNN) utilizando PyTorch" . 31 de marzo de 2020.
  17. ^ Mozafari, Milad; Ganjtabesh, Mohammad; Nowzari-Dalini, Abbas; Masquelier, Timothée (12 de julio de 2019). "SpykeTorch: simulación eficiente de redes neuronales Spiking convolucionales con como máximo un pico por neurona" . Fronteras en neurociencia . 13 : 625. arXiv : 1903.02440 . doi : 10.3389 / fnins.2019.00625 . PMC  6640212 . PMID  31354403 .
  18. ^ Sutton RS, Barto AG (2002) Aprendizaje por refuerzo: una introducción. Bradford Books, MIT Press, Cambridge, MA.
  19. ^ Boyn, S .; Grollier, J .; Lecerf, G. (3 de abril de 2017). "Aprendizaje a través de la dinámica de dominios ferroeléctricos en sinapsis de estado sólido" . Comunicaciones de la naturaleza . 8 : 14736. Bibcode : 2017NatCo ... 814736B . doi : 10.1038 / ncomms14736 . PMC  5382254 . PMID  28368007 .
  20. ^ administración. "Akida Neural Processor System-on-Chip" . BrainChip . Consultado el 12 de octubre de 2020 .
  21. ^ Xin Jin; Furber, Steve B .; Woods, John V. (2008). "Modelado eficiente de redes neuronales spiking en un multiprocesador de chip escalable". 2008 IEEE International Joint Conference on Neural Networks (IEEE World Congress on Computational Intelligence) . págs. 2812–2819. doi : 10.1109 / IJCNN.2008.4634194 . ISBN 978-1-4244-1820-6. S2CID  2103654 .
  22. ^ a b https://www.humanbrainproject.eu/en/silicon-brains/ Computación neuromórfica
  23. ^ a b "Hardware: sistemas disponibles" . Proyecto Cerebro Humano . Consultado el 10 de mayo de 2020 .
  24. ^ Markoff, John, Un nuevo chip funciona como un cerebro, dice IBM , New York Times, 8 de agosto de 2014, p.B1
  25. ^ Sayenko, Dimitry G .; Vette, Albert H .; Kamibayashi, Kiyotaka; Nakajima, Tsuyoshi; Akai, Masami; Nakazawa, Kimitaka (marzo de 2007). "Facilitación del reflejo de estiramiento del sóleo inducido por excitación eléctrica de aferentes cutáneos plantares localizados alrededor del talón". Cartas de neurociencia . 415 (3): 294–298. doi : 10.1016 / j.neulet.2007.01.037 . PMID  17276004 . S2CID  15165465 .
  26. ^ "Circuitos neuromórficos con modulación neuronal que mejoran el contenido de información de la señalización neuronal | Conferencia internacional sobre sistemas neuromórficos 2020". doi : 10.1145 / 3407197.3407204 . S2CID  220794387 . Cite journal requiere |journal=( ayuda )
  27. ^ Schrauwen B, Campenhout JV (2004) Mejora de spikeprop: mejoras en una regla de retropropagación de errores para picos de redes neuronales. En: Actas del 15 ° Taller ProRISC, Veldhoven, Países Bajos
  28. ^ Indiveri, Giacomo; Corradi, Federico; Qiao, Ning (2015). "Arquitecturas neuromórficas para aumentar las redes neuronales profundas". Reunión internacional de dispositivos electrónicos IEEE 2015 (IEDM) . págs. 4.2.1–4.2.4. doi : 10.1109 / IEDM.2015.7409623 . ISBN 978-1-4673-9894-7. S2CID  1065450 .
  29. ^ "Computación neuromórfica - próxima generación de IA" . Intel . Consultado el 22 de julio de 2019 .
  30. ^ Yamazaki, Tadashi; Tanaka, Shigeru (17 de octubre de 2007). "Un modelo de red de picos para la representación del paso del tiempo en el cerebelo" . Revista europea de neurociencia . 26 (8): 2279–2292. doi : 10.1111 / j.1460-9568.2007.05837.x . PMC  2228369 . PMID  17953620 .
  31. ^ Davies, Mike; Srinivasa, Narayan; Lin, Tsung-Han; Chinya, Gautham; Cao, Yongqiang; Choday, Sri Harsha; Dimou, Georgios; Joshi, Prasad; Imam, Nabil; Jain, Shweta; Liao, Yuyun; Lin, Chit-Kwan; Líneas, Andrew; Liu, Ruokun; Mathaikutty, Deepak; McCoy, Steven; Paul, Arnab; Tse, Jonathan; Venkataramanan, Guruguhanathan; Weng, Yi-Hsin; Salvaje, Andreas; Yang, Yoonseok; Wang, Hong (enero de 2018). "Loihi: un procesador Manycore neuromórfico con aprendizaje en chip". IEEE Micro . 38 (1): 82–99. doi : 10.1109 / MM.2018.112130359 . S2CID  3608458 .
  32. ^ Ponulak, F .; Kasinski, A. (2010). "Aprendizaje supervisado en redes neuronales de picos con ReSuMe: aprendizaje de secuencia, clasificación y cambio de picos". Computación neuronal . 22 (2): 467–510. doi : 10.1162 / neco.2009.11-08-901 . PMID  19842989 . S2CID  12572538 .
  33. ^ Newman y col. 1998
  34. ^ Bohte y col. 2002a
  35. ^ Belatreche y col. 2003
  36. ^ Pfister, Jean-Pascal; Toyoizumi, Taro; Barber, David; Gerstner, Wulfram (junio de 2006). "Plasticidad óptima dependiente de la sincronización del pico para el disparo de potencial de acción precisa en el aprendizaje supervisado". Computación neuronal . 18 (6): 1318-1348. arXiv : q-bio / 0502037 . Bibcode : 2005q.bio ..... 2037P . doi : 10.1162 / neco.2006.18.6.1318 . PMID  16764506 . S2CID  6379045 .
  37. ^ Bohte, et. Alabama. (2002b)

  • Texto completo del libro Spiking Neuron Models. Neuronas individuales, poblaciones, plasticidad por Wulfram Gerstner y Werner M. Kistler ( ISBN  0-521-89079-9 )