La red neuronal aleatoria (RNN) es una representación matemática de una red interconectada de neuronas o células que intercambian señales de picos . Fue inventado por Erol Gelenbe y está vinculado al modelo de red G de redes de cola, así como a los modelos de red reguladora de genes. Cada estado de la celda está representado por un número entero cuyo valor aumenta cuando la célula recibe un pico excitador y cae cuando recibe un pico inhibitorio. Los picos pueden originarse fuera de la redsí mismos, o pueden provenir de otras células en las redes. A las células cuyo estado excitador interno tiene un valor positivo se les permite enviar picos de cualquier tipo a otras células de la red de acuerdo con tasas específicas de picos dependientes de la célula. El modelo tiene una solución matemática en estado estable que proporciona la distribución de probabilidad conjunta de la red en términos de las probabilidades individuales de que cada celda esté excitada y pueda enviar picos. El cálculo de esta solución se basa en resolver un conjunto de ecuaciones algebraicas no lineales cuyos parámetrosestán relacionados con las tasas de picos de las celdas individuales y su conectividad con otras celdas, así como con las tasas de llegada de picos desde fuera de la red. El RNN es un modelo recurrente, es decir, una red neuronal que puede tener ciclos de retroalimentación complejos.
Una implementación muy eficiente de la energía de las redes neuronales al azar se demostró por Krishna Palem et al. utilizando la tecnología probabilística CMOS o PCMOS y se demostró que c. 226–300 veces más eficiente en términos de producto de rendimiento energético. [1]
Los RNN también están relacionados con las redes neuronales artificiales , que (como la red neuronal aleatoria) tienen algoritmos de aprendizaje basados en gradientes . El algoritmo de aprendizaje para una red neuronal aleatoria de n nodos que incluye bucles de retroalimentación (también es una red neuronal recurrente ) es de complejidad computacional O (n ^ 3) (el número de cálculos es proporcional al cubo de n, el número de neuronas). La red neuronal aleatoria también se puede utilizar con otros algoritmos de aprendizaje , como el aprendizaje por refuerzo . Se ha demostrado que el RNN es un aproximador universal para funciones acotadas y continuas .
Ver también
Referencias y fuentes
- Referencias
- ^ Lakshmi N. Chakrapani; Bilge ES Akgul; Suresh Cheemalavagu; Pinar Korkmaz; Krishna V. Palem; Balasubramanian Seshasayee. "Arquitecturas SOC integradas ultraeficientes basadas en tecnología probabilística CMOS (PCMOS)" . Conferencia de Automatización y Pruebas del Diseño en Europa (DATE), 2006.
- Fuentes
- E. Gelenbe, Redes neuronales aleatorias con señales negativas y positivas y solución de forma de producto, Computación neuronal, vol. 1, no. 4, págs. 502-511, 1989.
- E. Gelenbe, Estabilidad del modelo de red neuronal aleatoria, Computación neuronal, vol. 2, no. 2, págs. 239–247, 1990.
- E. Gelenbe, A. Stafylopatis y A. Likas, Operación de memoria asociativa del modelo de red aleatorio, en Proc. En t. Conf. Redes neuronales artificiales, Helsinki, págs. 307-312, 1991.
- E. Gelenbe, F. Batty, Gráfico de costo mínimo que cubre con la red neuronal aleatoria, Ciencias de la Computación e Investigación de Operaciones, O. Balci (ed.), Nueva York, Pergamon, págs. 139-147, 1992.
- E. Gelenbe, Aprendizaje en la red neuronal aleatoria recurrente, Computación neuronal, vol. 5, no. 1, págs. 154-164, 1993.
- E. Gelenbe, V. Koubi, F. Pekergin, Enfoque de red neuronal aleatoria dinámica para el problema del viajante, Proc. IEEE Symp. Syst., Man, Cybern., Págs. 630–635, 1993.
- E. Gelenbe, C. Cramer, M. Sungur, P. Gelenbe "Calidad de tráfico y video en compresión neuronal adaptativa", Multimedia Systems , 4, 357-369, 1996.
- C. Cramer, E. Gelenbe, H. Bakircioglu Compresión de video de baja tasa de bits con redes neuronales y submuestreo temporal, Actas del IEEE, vol. 84, núm. 10, págs. 1529-1543, octubre de 1996.
- E. Gelenbe, T. Feng, KRR Krishnan Métodos de redes neuronales para la formación de imágenes por resonancia magnética volumétrica del cerebro humano, Actas del IEEE, vol. 84, núm. 10, págs. 1488-1496, octubre de 1996.
- E. Gelenbe, A. Ghanwani, V. Srinivasan, "Mejora de la heurística neuronal para el enrutamiento de multidifusión", IEEE J. Selected Areas in Communications , 15, (2), 147-155, 1997.
- E. Gelenbe, ZH Mao y YD Li, "Aproximación de funciones con la red neuronal aleatoria", IEEE Trans. Neural Networks , 10, (1), enero de 1999. [ página necesaria ]
- E. Gelenbe, JM Fourneau '"Redes neuronales aleatorias con múltiples clases de señales", Computación neuronal , 11, 721-731, 1999.
- Ugur Halici "Aprendizaje por refuerzo con expectativa interna para la red neuronal aleatoria", European Journal of Operational Research 126 (2): 288-307, 2000.
- Aristidis Likas, Andreas Stafylopatis "Entrenamiento de la red neuronal aleatoria usando métodos cuasi-Newton", European Journal of Operational Research 126 (2): 331–339, 2000.
- Samir Mohamed, Gerardo Rubino, Martín Varela "Evaluación del rendimiento del habla en tiempo real a través de una red de paquetes: un enfoque basado en redes neuronales aleatorias", Perform. Eval. 57 (2): 141-161, 2004.
- E. Gelenbe, Z.-H. Mao y YD. Li "Aproximación de funciones por redes neuronales aleatorias con un número limitado de capas", 'Ecuaciones diferenciales y sistemas dinámicos', 12 (1 y 2), 143-170, enero de abril de 2004.
- Gerardo Rubino, Pierre Tirilly, Martín Varela "Evaluación de la satisfacción de los usuarios en redes de paquetes mediante redes neuronales aleatorias", ICANN (1) 2006: 303–312, 2006.
- Gülay Öke y Georgios Loukas. Un detector de denegación de servicio basado en la detección de máxima probabilidad y la red neuronal aleatoria. Computer Journal, 50 (6): 717–727, noviembre de 2007.
- S. Timotheou. Aprendizaje de mínimos cuadrados no negativos para la red neuronal aleatoria. En Actas de la 18ª Conferencia Internacional sobre Redes Neuronales Artificiales, Praga, República Checa, páginas 195–204, 2008.
- S. Timotheou. Un método de inicialización de peso novedoso para la red neuronal aleatoria. En el Quinto Simposio Internacional sobre Redes Neuronales (ISNN), Beijing, China, 2008.
- Stelios Timotheou "La red neuronal aleatoria: una encuesta", Computación. J. 53 (3): 251–267, 2010.
- Pedro Casas, Sandrine Vaton "Sobre el uso de redes neuronales aleatorias para la estimación de matrices de tráfico en redes IP a gran escala", IWCMC 2010: 326–330, 2010.
- S. Basterrech, G. Rubino, "Red neuronal aleatoria como herramienta de aprendizaje supervisado", Neural Network World, 25 (5), 457-499, doi : 10.14311 / NNW.2015.25.024 , 2015.
- S. Basterrech, S. Mohamed, G. Rubino, M. Soliman, "Algoritmos de entrenamiento de Levenberg-Marquardt para redes neuronales aleatorias", Computer Journal, 54 (1), 125-135, 2011.
- Michael Georgiopoulos, Cong Li y Taskin Kocak "Aprendizaje en la red neuronal aleatoria de retroalimentación: una revisión crítica", Evaluación del desempeño, 68 (4): 361–384, 2011.