Escuche este articulo
De Wikipedia, la enciclopedia libre
Saltar a navegación Saltar a búsqueda

Vista simplificada de una red neuronal artificial feedforward

Una red neuronal es una red o circuito de neuronas , o en un sentido moderno, una red neuronal artificial , compuesta de neuronas o nodos artificiales . [1] Por lo tanto, una red neuronal es una red neuronal biológica , formada por neuronas biológicas reales, o una red neuronal artificial, para resolver problemas de inteligencia artificial (IA). Las conexiones de la neurona biológica se modelan como pesos. Un peso positivo refleja una conexión excitadora, mientras que los valores negativos significan conexiones inhibitorias. Todas las entradas se modifican con un peso y se suman. Esta actividad se denomina combinación lineal. Finalmente, una función de activación controla elamplitud de la salida. Por ejemplo, un rango aceptable de salida suele estar entre 0 y 1, o podría ser -1 y 1.

Estas redes artificiales pueden usarse para modelado predictivo , control adaptativo y aplicaciones en las que se pueden entrenar a través de un conjunto de datos. El autoaprendizaje resultante de la experiencia puede ocurrir dentro de las redes, que pueden derivar conclusiones de un conjunto de información complejo y aparentemente no relacionado. [2]

Resumen [ editar ]

Una red neuronal biológica se compone de un grupo de neuronas conectadas químicamente o asociadas funcionalmente. Una sola neurona puede estar conectada a muchas otras neuronas y el número total de neuronas y conexiones en una red puede ser extenso. Las conexiones, llamadas sinapsis , generalmente se forman a partir de axones a dendritas , aunque son posibles las sinapsis dendrodendríticas [3] y otras conexiones. Aparte de la señalización eléctrica, existen otras formas de señalización que surgen de la difusión de neurotransmisores .

La inteligencia artificial, el modelado cognitivo y las redes neuronales son paradigmas de procesamiento de información inspirados en la forma en que los sistemas neuronales biológicos procesan los datos. La inteligencia artificial y el modelado cognitivo intentan simular algunas propiedades de las redes neuronales biológicas. En el campo de la inteligencia artificial , las redes neuronales artificiales se han aplicado con éxito al reconocimiento de voz , análisis de imágenes y control adaptativo , con el fin de construir agentes software (en ordenador y videojuegos ) o robots autónomos .

Históricamente, las computadoras digitales evolucionaron a partir del modelo de von Neumann y operan mediante la ejecución de instrucciones explícitas a través del acceso a la memoria por parte de varios procesadores. Por otro lado, los orígenes de las redes neuronales se basan en los esfuerzos por modelar el procesamiento de información en sistemas biológicos. A diferencia del modelo de von Neumann, la computación de redes neuronales no separa la memoria y el procesamiento.

La teoría de las redes neuronales ha servido tanto para identificar mejor cómo funcionan las neuronas en el cerebro como para sentar las bases de los esfuerzos para crear inteligencia artificial.

Historia [ editar ]

La base teórica preliminar para las redes neuronales contemporáneas fue propuesta independientemente por Alexander Bain [4] (1873) y William James [5] (1890). En su trabajo, tanto los pensamientos como la actividad corporal eran el resultado de interacciones entre neuronas dentro del cerebro.

Simulación por computadora de la arquitectura ramificada de las dendritas de neuronas piramidales . [6]

Para Bain, [4] cada actividad conducía a la activación de un determinado conjunto de neuronas. Cuando se repitieron las actividades, las conexiones entre esas neuronas se fortalecieron. Según su teoría, esta repetición fue lo que llevó a la formación de la memoria. La comunidad científica en general en ese momento era escéptica de la teoría de Bain [4] porque requería lo que parecía ser un número desmesurado de conexiones neuronales dentro del cerebro. Ahora es evidente que el cerebro es excesivamente complejo y que el mismo "cableado" cerebral puede manejar múltiples problemas e insumos.

La teoría de James [5] era similar a la de Bain, [4] sin embargo, sugirió que los recuerdos y las acciones eran el resultado de corrientes eléctricas que fluían entre las neuronas del cerebro. Su modelo, al centrarse en el flujo de corrientes eléctricas, no requería conexiones neuronales individuales para cada recuerdo o acción.

CS Sherrington [7] (1898) realizó experimentos para probar la teoría de James. Hizo correr corrientes eléctricas por la médula espinal de las ratas. Sin embargo, en lugar de demostrar un aumento en la corriente eléctrica según lo proyectado por James, Sherrington descubrió que la intensidad de la corriente eléctrica disminuía a medida que las pruebas continuaban con el tiempo. Es importante destacar que este trabajo condujo al descubrimiento del concepto de habituación .

McCulloch y Pitts [8] (1943) crearon un modelo computacional para redes neuronales basado en matemáticas y algoritmos. A este modelo lo llamaron lógica de umbral . El modelo allanó el camino para que la investigación de redes neuronales se dividiera en dos enfoques distintos. Un enfoque se centró en los procesos biológicos en el cerebro y el otro se centró en la aplicación de redes neuronales a la inteligencia artificial.

A finales de la década de 1940, el psicólogo Donald Hebb [9] creó una hipótesis de aprendizaje basada en el mecanismo de plasticidad neuronal que ahora se conoce como aprendizaje hebbiano . El aprendizaje de Hebbian se considera una regla de aprendizaje no supervisada "típica" y sus variantes posteriores fueron modelos tempranos para la potenciación a largo plazo . Estas ideas comenzaron a aplicarse a modelos computacionales en 1948 con las máquinas de tipo B de Turing .

Farley y Clark [10] (1954) utilizaron por primera vez máquinas computacionales, luego llamadas calculadoras, para simular una red hebbiana en el MIT. Otras máquinas computacionales de redes neuronales fueron creadas por Rochester, Holland, Habit y Duda [11] (1956).

Rosenblatt [12] (1958) creó el perceptrón , un algoritmo para el reconocimiento de patrones basado en una red informática de aprendizaje de dos capas que utiliza sumas y restas simples. Con la notación matemática, Rosenblatt también describió los circuitos que no están en el perceptrón básico, como el circuito exclusivo o , un circuito cuyo cálculo matemático no pudo procesarse hasta que Werbos creó el algoritmo de retropropagación [13] (1975).

La investigación de redes neuronales se estancó después de la publicación de la investigación de aprendizaje automático por Marvin Minsky y Seymour Papert [14] (1969). Descubrieron dos problemas clave con las máquinas computacionales que procesaban las redes neuronales. El primer problema fue que las redes neuronales de una sola capa eran incapaces de procesar el circuito exclusivo o. El segundo problema importante fue que las computadoras no eran lo suficientemente sofisticadas para manejar con eficacia el tiempo de ejecución prolongado que requieren las grandes redes neuronales. La investigación de redes neuronales se ralentizó hasta que las computadoras lograron una mayor potencia de procesamiento. También fue clave en los avances posteriores el algoritmo de retropropagación que resolvió eficazmente el problema exclusivo-o (Werbos 1975). [13]

El procesamiento distribuido en paralelo de mediados de la década de 1980 se hizo popular con el nombre de conexionismo . El texto de Rumelhart y McClelland [15] (1986) proporcionó una exposición completa sobre el uso del conexionismo en las computadoras para simular procesos neuronales.

Las redes neuronales, tal como se utilizan en la inteligencia artificial, se han considerado tradicionalmente como modelos simplificados de procesamiento neuronal en el cerebro, aunque se debate la relación entre este modelo y la arquitectura biológica del cerebro, ya que no está claro hasta qué punto las redes neuronales artificiales reflejan el cerebro. función. [dieciséis]

Inteligencia artificial [ editar ]

Una red neuronal (NN), en el caso de neuronas artificiales llamada red neuronal artificial (ANN) o red neuronal simulada (SNN), es un grupo interconectado de neuronas naturales o artificiales que utiliza un modelo matemático o computacional para el procesamiento de información basado en un enfoque conexionista de la computación . En la mayoría de los casos, una RNA es un sistema adaptativo que cambia su estructura en base a información externa o interna que fluye a través de la red.

En términos más prácticos, las redes neuronales son herramientas de toma de decisiones o modelado de datos estadísticos no lineales . Se pueden utilizar para modelar relaciones complejas entre entradas y salidas o para encontrar patrones en los datos.

Una red neuronal artificial implica una red de elementos de procesamiento simples ( neuronas artificiales ) que pueden exhibir un comportamiento global complejo, determinado por las conexiones entre los elementos de procesamiento y los parámetros del elemento. Las neuronas artificiales fueron propuestas por primera vez en 1943 por Warren McCulloch , un neurofisiólogo, y Walter Pitts , un lógico, que colaboró ​​por primera vez en la Universidad de Chicago . [17]

Un tipo clásico de red neuronal artificial es la red Hopfield recurrente .

El concepto de red neuronal parece haber sido propuesto por primera vez por Alan Turing en su artículo de 1948 Intelligent Machinery, en el que las llamó "máquinas no organizadas de tipo B". [18]

La utilidad de los modelos de redes neuronales artificiales radica en el hecho de que pueden usarse para inferir una función a partir de observaciones y también para usarla. Las redes neuronales no supervisadas también se pueden usar para aprender representaciones de la entrada que capturan las características sobresalientes de la distribución de entrada, por ejemplo, consulte la máquina de Boltzmann (1983) y, más recientemente, los algoritmos de aprendizaje profundo , que pueden aprender implícitamente la función de distribución de la datos observados. El aprendizaje en redes neuronales es particularmente útil en aplicaciones donde la complejidad de los datos o la tarea hace que el diseño de tales funciones a mano no sea práctico.

Aplicaciones [ editar ]

Las redes neuronales se pueden utilizar en diferentes campos. Las tareas a las que se aplican las redes neuronales artificiales tienden a caer dentro de las siguientes categorías generales:

  • Aproximación de funciones o análisis de regresión , incluida la predicción y el modelado de series de tiempo .
  • Clasificación , incluido el reconocimiento de patrones y secuencias, la detección de novedades y la toma de decisiones secuencial.
  • Procesamiento de datos , incluido el filtrado, la agrupación en clústeres, la separación y compresión ciegas de señales .

Las áreas de aplicación de las RNA incluyen identificación y control de sistemas no lineales [19] (control de vehículos, control de procesos), juego y toma de decisiones (backgammon, ajedrez, carreras), reconocimiento de patrones (sistemas de radar, identificación de rostros , reconocimiento de objetos), reconocimiento de secuencias ( reconocimiento de gestos, voz, texto escrito a mano ), diagnóstico médico, aplicaciones financieras, minería de datos (o descubrimiento de conocimientos en bases de datos, "KDD"), visualización y filtrado de correo no deseado . Por ejemplo, es posible crear un perfil semántico de los intereses del usuario que surgen de imágenes entrenadas para el reconocimiento de objetos. [20]

Neurociencia [ editar ]

La neurociencia teórica y computacional es el campo que se ocupa del análisis y modelado computacional de sistemas neuronales biológicos. Dado que los sistemas neuronales están íntimamente relacionados con los procesos cognitivos y el comportamiento, el campo está estrechamente relacionado con el modelado cognitivo y conductual.

El objetivo del campo es crear modelos de sistemas neuronales biológicos para comprender cómo funcionan los sistemas biológicos. Para obtener esta comprensión, los neurocientíficos se esfuerzan por establecer un vínculo entre los procesos biológicos observados (datos), los mecanismos biológicamente plausibles para el procesamiento y el aprendizaje neuronales ( modelos de redes neuronales biológicas ) y la teoría (teoría del aprendizaje estadístico y teoría de la información ).

Tipos de modelos [ editar ]

Se utilizan muchos modelos; definidos en diferentes niveles de abstracción y modelando diferentes aspectos de los sistemas neuronales. Van desde modelos del comportamiento a corto plazo de neuronas individuales , pasando por modelos de la dinámica de los circuitos neuronales que surgen de las interacciones entre neuronas individuales, hasta modelos de comportamiento que surgen de módulos neuronales abstractos que representan subsistemas completos. Estos incluyen modelos de la plasticidad a largo y corto plazo de los sistemas neuronales y su relación con el aprendizaje y la memoria, desde la neurona individual hasta el nivel del sistema.

Conectividad [ editar ]

En agosto de 2020, los científicos informaron que las conexiones bidireccionales, o las conexiones de retroalimentación apropiadas agregadas, pueden acelerar y mejorar la comunicación entre y en las redes neuronales modulares de la corteza cerebral del cerebro y reducir el umbral para su comunicación exitosa. Demostraron que agregar conexiones de retroalimentación entre un par de resonancia puede respaldar la propagación exitosa de un solo paquete de pulsos en toda la red. [21] [22]

Crítica [ editar ]

Una crítica común a las redes neuronales, particularmente en robótica, es que requieren una gran diversidad de muestras de entrenamiento para su funcionamiento en el mundo real. Esto no es sorprendente, ya que cualquier máquina de aprendizaje necesita suficientes ejemplos representativos para capturar la estructura subyacente que le permite generalizar a nuevos casos. Dean Pomerleau, en su investigación presentada en el artículo "Entrenamiento basado en el conocimiento de redes neuronales artificiales para la conducción autónoma de robots", utiliza una red neuronal para entrenar un vehículo robótico para que conduzca en varios tipos de carreteras (de un solo carril, de varios carriles, de tierra , etc.). Una gran parte de su investigación está dedicada a (1) extrapolar múltiples escenarios de entrenamiento a partir de una sola experiencia de entrenamiento, y (2) preservar la diversidad del entrenamiento pasado para que el sistema no se sobreentrene (si, por ejemplo,se presenta con una serie de giros a la derecha (no debe aprender a girar siempre a la derecha). Estos problemas son comunes en las redes neuronales que deben decidir entre una amplia variedad de respuestas, pero se pueden tratar de varias maneras, por ejemplo, mezclando aleatoriamente los ejemplos de entrenamiento, usando un algoritmo de optimización numérica que no da pasos demasiado grandes cuando cambiando las conexiones de red siguiendo un ejemplo, o agrupando ejemplos en los llamados mini-lotes.utilizando un algoritmo de optimización numérica que no da pasos demasiado grandes al cambiar las conexiones de red siguiendo un ejemplo, o agrupando ejemplos en los llamados mini-lotes.utilizando un algoritmo de optimización numérica que no da pasos demasiado grandes al cambiar las conexiones de red siguiendo un ejemplo, o agrupando ejemplos en los llamados mini-lotes.

AK Dewdney , un ex columnista de Scientific American , escribió en 1997: "Aunque las redes neuronales resuelven algunos problemas de juguete, sus poderes de cálculo son tan limitados que me sorprende que alguien los tome en serio como una herramienta general de resolución de problemas" (Dewdney, pág.82).

Los argumentos a favor de la posición de Dewdney son que para implementar redes neuronales de software grandes y efectivas, se deben comprometer muchos recursos de procesamiento y almacenamiento. Si bien el cerebro tiene hardware adaptado a la tarea de procesar señales a través de un gráfico de neuronas, simular incluso una forma más simplificada en la tecnología de Von Neumann puede obligar a un diseñador de redes neuronales a llenar muchos millones de filas de bases de datos para sus conexiones, lo que puede consumir grandes cantidades de memoria de computadora y capacidad de almacenamiento de datos . Además, el diseñador de sistemas de redes neuronales a menudo necesitará simular la transmisión de señales a través de muchas de estas conexiones y sus neuronas asociadas, que a menudo deben combinarse con cantidades increíbles de CPU.potencia y tiempo de procesamiento. Si bien las redes neuronales a menudo producen programas eficaces , con demasiada frecuencia lo hacen a costa de la eficiencia (tienden a consumir cantidades considerables de tiempo y dinero).

Los argumentos en contra de la posición de Dewdney son que las redes neuronales se han utilizado con éxito para resolver muchas tareas complejas y diversas, como volar aviones de forma autónoma. [23]

El escritor de tecnología Roger Bridgman comentó sobre las declaraciones de Dewdney sobre las redes neuronales:

Las redes neuronales, por ejemplo, están en el banquillo no solo porque han sido promocionadas hasta el cielo (¿qué no?), Sino también porque podrías crear una red exitosa sin entender cómo funcionaba: el montón de números que capturan su el comportamiento sería con toda probabilidad "una tabla opaca, ilegible ... sin valor como recurso científico".

A pesar de su enfática declaración de que la ciencia no es tecnología, Dewdney parece aquí criticar las redes neuronales como mala ciencia cuando la mayoría de los que las idean están tratando de ser buenos ingenieros. Vale la pena tener una tabla ilegible que pueda leer una máquina útil. [24]

Si bien es cierto que analizar lo aprendido por una red neuronal artificial es difícil, es mucho más fácil hacerlo que analizar lo aprendido por una red neuronal biológica. Además, el énfasis reciente en la explicabilidad de la IA ha contribuido al desarrollo de métodos, en particular los basados ​​en mecanismos de atención, para visualizar y explicar las redes neuronales aprendidas. Además, los investigadores involucrados en la exploración de algoritmos de aprendizaje para redes neuronales están descubriendo gradualmente principios genéricos que permiten que una máquina de aprendizaje tenga éxito. Por ejemplo, Bengio y LeCun (2007) escribieron un artículo sobre el aprendizaje local vs no local, así como la arquitectura superficial vs profunda. [25]

Algunas otras críticas vinieron de los creyentes de modelos híbridos (que combinan redes neuronales y enfoques simbólicos ). Abogan por la mezcla de estos dos enfoques y creen que los modelos híbridos pueden capturar mejor los mecanismos de la mente humana (Sun y Bookman, 1990). [ se necesita cita completa ]

Mejoras recientes [ editar ]

Si bien inicialmente la investigación se había centrado principalmente en las características eléctricas de las neuronas, una parte particularmente importante de la investigación en los últimos años ha sido la exploración del papel de los neuromoduladores como la dopamina , la acetilcolina y la serotonina en el comportamiento y el aprendizaje.

Los modelos biofísicos , como la teoría BCM , han sido importantes para comprender los mecanismos de la plasticidad sináptica y han tenido aplicaciones tanto en la informática como en la neurociencia. La investigación está en curso para comprender los algoritmos computacionales utilizados en el cerebro, con algunas pruebas biológicas recientes de redes de base radial y retropropagación neuronal como mecanismos para procesar datos.

Se han creado dispositivos computacionales en CMOS para simulación biofísica y computación neuromórfica . Los esfuerzos más recientes son prometedores para la creación de nanodispositivos para análisis y convolución de componentes principales a gran escala . [26] Si tienen éxito, estos esfuerzos podrían marcar el comienzo de una nueva era de la computación neuronal que es un paso más allá de la computación digital, [27] porque depende del aprendizaje en lugar de la programación y porque es fundamentalmente analógica en lugar de digital a pesar de que las primeras instancias De hecho, puede ser con dispositivos digitales CMOS.

Entre 2009 y 2012, las redes neuronales recurrentes y las redes neuronales de alimentación profunda desarrolladas en el grupo de investigación de Jürgen Schmidhuber en el Swiss AI Lab IDSIA han ganado ocho concursos internacionales en reconocimiento de patrones y aprendizaje automático . [28] Por ejemplo, la memoria multidimensional a largo plazo a corto plazo (LSTM) [29] [30] ganó tres concursos de reconocimiento de escritura conectada en la Conferencia Internacional de Análisis y Reconocimiento de Documentos (ICDAR) de 2009, sin ningún conocimiento previo sobre los tres diferentes idiomas para aprender.

Las variantes del algoritmo de retropropagación , así como los métodos no supervisados ​​de Geoff Hinton y sus colegas de la Universidad de Toronto, pueden usarse para entrenar arquitecturas neuronales profundas y altamente no lineales, [31] similar al Neocognitron de 1980 de Kunihiko Fukushima , [32] y la "arquitectura estándar de la visión", [33] inspirada en las células simples y complejas identificadas por David H. Hubel y Torsten Wiesel en la corteza visual primaria .

También se han introducido la función de base radial y las redes de ondículas. Se puede demostrar que ofrecen las mejores propiedades de aproximación y se han aplicado en aplicaciones de clasificación e identificación de sistemas no lineales . [19]

Las redes de alimentación anticipada de aprendizaje profundo alternan capas convolucionales y capas de agrupación máxima, coronadas por varias capas de clasificación puras. Las implementaciones rápidas de este enfoque basadas en GPU han ganado varios concursos de reconocimiento de patrones, incluido el Concurso de reconocimiento de señales de tráfico IJCNN 2011 [34] y el desafío de Segmentación de estructuras neuronales en pilas de microscopía electrónica de ISBI 2012. [35] Estas redes neuronales también fueron los primeros reconocedores de patrones artificiales en lograr un rendimiento humano competitivo o incluso sobrehumano [36] en puntos de referencia como el reconocimiento de señales de tráfico (IJCNN 2012), o el problema de dígitos manuscritos del MNIST de Yann LeCun y sus colegas enNYU .

Ver también [ editar ]

  • ADALINE
  • Teoría de la resonancia adaptativa
  • Cibernética biológica
  • Computación de inspiración biológica
  • Controlador de articulación modelo cerebeloso
  • Arquitectura cognitiva
  • Ciencia cognitiva
  • Conectividad
  • Redes neuronales cultivadas
  • Aprendizaje profundo
  • Imagen profunda antes
  • Morfogénesis digital
  • Red neuronal actualizable de forma eficiente
  • Exclusivo o
  • Algoritmo evolutivo
  • Algoritmo genético
  • Programación de expresión genética
  • Red de confrontación generativa
  • Método grupal de manejo de datos
  • Habituación
  • Tabulación adaptativa in situ
  • Memristor
  • Aprendizaje subespacial multilineal
  • Software de red neuronal
  • Identificación del sistema no lineal
  • Procesos paralelos de satisfacción de restricciones
  • Procesamiento distribuido en paralelo
  • Analítica predictiva
  • Red de función de base radial
  • Mapa autoorganizado
  • Realidad simulada
  • Máquinas de vectores soporte
  • Red de productos de tensor
  • Red neuronal de retardo de tiempo

Referencias [ editar ]

  1. ^ Hopfield, JJ (1982). "Redes neuronales y sistemas físicos con habilidades computacionales colectivas emergentes" . Proc. Natl. Acad. Sci. USA . 79 (8): 2554-2558. Código Bibliográfico : 1982PNAS ... 79.2554H . doi : 10.1073 / pnas.79.8.2554 . PMC  346238 . PMID  6953413 .
  2. ^ "Red neuronal o red neuronal - Glosario de TI de Gartner" . www.gartner.com .
  3. Arbib, p. 666
  4. ↑ a b c d Bain (1873). Mente y cuerpo: las teorías de su relación . Nueva York: D. Appleton and Company.
  5. ↑ a b James (1890). Los principios de la psicología . Nueva York: H. Holt and Company.
  6. ^ Cuntz, Hermann (2010). "Imagen de edición de biología computacional PLoS | Vol. 6 (8) agosto de 2010" . PLOS Biología Computacional . 6 (8): ev06.i08. doi : 10.1371 / image.pcbi.v06.i08 .
  7. ^ Sherrington, CS (1898). "Experimentos de examen de la distribución periférica de las fibras de las raíces posteriores de algunos nervios espinales" . Actas de la Royal Society de Londres . 190 : 45-186. doi : 10.1098 / rstb.1898.0002 .
  8. ^ McCulloch, Warren; Walter Pitts (1943). "Un cálculo lógico de ideas inmanentes a la actividad nerviosa". Boletín de Biofísica Matemática . 5 (4): 115-133. doi : 10.1007 / BF02478259 .
  9. ^ Hebb, Donald (1949). La organización del comportamiento . Nueva York: Wiley.
  10. ^ Farley, B .; WA Clark (1954). "Simulación de Sistemas Autoorganizados por Computadora Digital". Transacciones IRE sobre teoría de la información . 4 (4): 76–84. doi : 10.1109 / TIT.1954.1057468 .
  11. ^ Rochester, N .; JH Holland, LH Habit y WL Duda (1956). "Pruebas sobre una teoría de ensamblaje celular de la acción del cerebro, utilizando una gran computadora digital". Transacciones IRE sobre teoría de la información . 2 (3): 80–93. doi : 10.1109 / TIT.1956.1056810 .
  12. ^ Rosenblatt, F. (1958). "El perceptrón: un modelo probalístico para el almacenamiento y la organización de la información en el cerebro". Revisión psicológica . 65 (6): 386–408. CiteSeerX 10.1.1.588.3775 . doi : 10.1037 / h0042519 . PMID 13602029 .  
  13. ↑ a b Werbos, PJ (1975). Más allá de la regresión: nuevas herramientas de predicción y análisis en las ciencias del comportamiento .
  14. ^ Minsky, M .; S. Papert (1969). Introducción a la geometría computacional . MIT Press. ISBN 978-0-262-63022-1.
  15. ^ Rumelhart, DE; James McClelland (1986). Procesamiento distribuido paralelo: exploraciones en la microestructura de la cognición . Cambridge: MIT Press.
  16. ^ Russell, Ingrid. "Módulo de redes neuronales" . Archivado desde el original el 29 de mayo de 2014 . Consultado en 2012 . Verifique los valores de fecha en: |access-date=( ayuda )
  17. ^ McCulloch, Warren; Pitts, Walter (1943). "Un cálculo lógico de ideas inmanentes a la actividad nerviosa". Boletín de Biofísica Matemática . 5 (4): 115-133. doi : 10.1007 / BF02478259 .
  18. ^ Copeland, B. Jack, ed. (2004). El Turing esencial . Prensa de la Universidad de Oxford. pag. 403. ISBN 978-0-19-825080-7.
  19. ↑ a b Billings, SA (2013). Identificación de sistemas no lineales: métodos NARMAX en los dominios de tiempo, frecuencia y espacio-temporal . Wiley. ISBN 978-1-119-94359-4.
  20. ^ Wieczorek, Szymon; Filipiak, Dominik; Filipowska, Agata (2018). "Perfilado basado en imágenes semánticas de los intereses de los usuarios con redes neuronales" . Estudios sobre la Web Semántica . 36 (Temas emergentes en tecnologías semánticas). doi : 10.3233 / 978-1-61499-894-5-179 .
  21. ^ "Los neurocientíficos demuestran cómo mejorar la comunicación entre diferentes regiones del cerebro" . medicalxpress.com . Consultado el 6 de septiembre de 2020 .
  22. ^ Rezaei, Hedyeh; Aertsen, Ad; Kumar, Arvind; Valizadeh, Alireza (10 de agosto de 2020). "Facilitar la propagación de la actividad de picos en las redes de alimentación mediante la inclusión de retroalimentación" . PLOS Biología Computacional . 16 (8): e1008033. doi : 10.1371 / journal.pcbi.1008033 . ISSN 1553-7358 . PMID 32776924 . S2CID 221100528 .    El texto y las imágenes están disponibles bajo una licencia internacional Creative Commons Attribution 4.0 .
  23. ^ Administrador, NASA (5 de junio de 2013). "Dryden Flight Research Center - News Room: News Releases: NASA NEURAL NETWORK PROJECT APASS HITO" . NASA .
  24. ^ "Defensa de las redes neuronales de Roger Bridgman" . Archivado desde el original el 19 de marzo de 2012 . Consultado el 1 de agosto de 2006 .
  25. ^ "Escala de algoritmos de aprendizaje hacia {AI} - LISA - Publicaciones - Aigaion 2.0" . www.iro.umontreal.ca .
  26. ^ Yang, JJ; et al. (2008). "Mecanismo de conmutación memristive para nanodispositivos metal / óxido / metal". Nat. Nanotechnol. 3 (7): 429–433. doi : 10.1038 / nnano.2008.160 . PMID 18654568 .  
  27. ^ Strukov, DB; et al. (2008). "El memristor faltante encontrado". Naturaleza . 453 (7191): 80–83. Código Bibliográfico : 2008Natur.453 ... 80S . doi : 10.1038 / nature06932 . PMID 18451858 . 
  28. ^ "2012 Kurzweil AI Entrevista con Jürgen Schmidhuber sobre las ocho competiciones ganadas por su equipo de Deep Learning 2009-2012" . Archivado desde el original el 31 de agosto de 2018 . Consultado el 10 de diciembre de 2012 .
  29. ^ Tumbas, Alex; Schmidhuber, Jürgen (2008). "Reconocimiento de escritura sin conexión con redes neuronales recurrentes multidimensionales" . En Bengio, Yoshua; Schuurmans, Dale; Lafferty, John; Williams, Chris KI; Culotta, Aron (eds.). Avances en los sistemas de procesamiento de información neuronal 21 (NIPS'21) . Fundación de sistemas de procesamiento de información neuronal (NIPS). págs. 545–552.
  30. ^ Graves, A .; Liwicki, M .; Fernandez, S .; Bertolami, R .; Bunke, H .; Schmidhuber, J. (2009). "Un nuevo sistema conexionista para un mejor reconocimiento de escritura sin restricciones". Transacciones IEEE sobre análisis de patrones e inteligencia de máquinas . 31 (5): 855–868. CiteSeerX 10.1.1.139.4502 . doi : 10.1109 / TPAMI.2008.137 . PMID 19299860 .  
  31. ^ Hinton, GE ; Osindero, S .; Teh, Y. (2006). "Un algoritmo de aprendizaje rápido para redes de creencias profundas" (PDF) . Computación neuronal . 18 (7): 1527-1554. CiteSeerX 10.1.1.76.1541 . doi : 10.1162 / neco.2006.18.7.1527 . PMID 16764513 .   
  32. ^ Fukushima, K. (1980). "Neocognitron: un modelo de red neuronal autoorganizadora para un mecanismo de reconocimiento de patrones que no se ve afectado por el cambio de posición". Cibernética biológica . 36 (4): 93-202. doi : 10.1007 / BF00344251 . PMID 7370364 . 
  33. Riesenhuber, M .; Poggio, T. (1999). "Modelos jerárquicos de reconocimiento de objetos en la corteza". Neurociencia de la naturaleza . 2 (11): 1019-1025. doi : 10.1038 / 14819 . PMID 10526343 . 
  34. ^ DC Ciresan, U. Meier, J. Masci, J. Schmidhuber. Red neuronal profunda multicolumna para clasificación de señales de tráfico . Redes neuronales, 2012.
  35. D. Ciresan, A. Giusti, L. Gambardella, J. Schmidhuber. Las redes neuronales profundas segmentan las membranas neuronales en imágenes de microscopía electrónica . En Advances in Neural Information Processing Systems (NIPS 2012), Lake Tahoe, 2012.
  36. ^ DC Ciresan, U. Meier, J. Schmidhuber . Redes neuronales profundas de varias columnas para clasificación de imágenes. Conf. IEEE sobre Visión por Computador y Reconocimiento de Patrones CVPR 2012.

Enlaces externos [ editar ]

Escuche este artículo ( 31 minutos )
Icono de Wikipedia hablado
Este archivo de audio se creó a partir de una revisión de este artículo con fecha del 27 de noviembre de 2011 y no refleja ediciones posteriores. ( 2011-11-27 )
  • Una breve introducción a las redes neuronales (D. Kriesel) : manuscrito bilingüe ilustrado sobre redes neuronales artificiales; Temas hasta ahora: perceptrones, retropropagación, funciones de base radial, redes neuronales recurrentes, mapas autoorganizados, redes Hopfield.
  • Revisión de redes neuronales en ciencia de materiales
  • Tutorial de Redes Neuronales Artificiales en tres idiomas (Univ. Politécnica de Madrid)
  • Otra introducción a ANN
  • Próxima generación de redes neuronales : charlas técnicas de Google
  • Rendimiento de las redes neuronales
  • Información y redes neuronales
  • Sanderson, Grant (5 de octubre de 2017). "Pero, ¿qué es una red neuronal?" . 3Blue1Brown : a través de YouTube .