Apache MXNet es un marco de software de aprendizaje profundo de código abierto , que se utiliza para entrenar e implementar redes neuronales profundas . Es escalable, lo que permite un rápido entrenamiento de modelos y admite un modelo de programación flexible y múltiples lenguajes de programación (incluidos C ++ , Python , Java , Julia , Matlab , JavaScript , Go , R , Scala , Perl y Wolfram Language ).
Desarrollador (es) | Fundación de software Apache |
---|---|
Lanzamiento estable | 1.8.0 [1] / 3 de marzo de 2021 |
Repositorio | |
Escrito en | C ++ , Python , R , Java , Julia , JavaScript , Scala , Go , Perl |
Sistema operativo | Windows , macOS , Linux |
Tipo | Biblioteca para aprendizaje automático y aprendizaje profundo |
Licencia | Licencia Apache 2.0 |
Sitio web | mxnet .apache .org |
La biblioteca MXNet es portátil y se puede escalar a varias GPU [2] y varias máquinas. MXNet es compatible con proveedores de nube pública , incluidos Amazon Web Services (AWS) [3] y Microsoft Azure . [4] Amazon ha elegido MXNet como su marco de aprendizaje profundo preferido en AWS. [5] [6] Actualmente, MXNet cuenta con el apoyo de Intel , Baidu , Microsoft , Wolfram Research e instituciones de investigación como Carnegie Mellon , MIT , la Universidad de Washington y la Universidad de Ciencia y Tecnología de Hong Kong . [7] Fue co-desarrollado por Carlos Guestrin en la Universidad de Washington (junto con GraphLab). [8]
Características
Apache MXNet es un marco de aprendizaje profundo esbelto, flexible y ultra escalable que admite modelos de aprendizaje profundo de vanguardia, incluidas las redes neuronales convolucionales (CNN) y las redes de memoria a corto plazo (LSTM).
Escalable
MXNet está diseñado para distribuirse en una infraestructura de nube dinámica , utilizando un servidor de parámetros distribuidos (basado en investigaciones de la Universidad Carnegie Mellon , Baidu y Google [9] ), y puede lograr una escala casi lineal con múltiples GPU o CPU .
Flexible
MXNet admite la programación imperativa y simbólica, lo que facilita a los desarrolladores que están acostumbrados a la programación imperativa comenzar con el aprendizaje profundo. También facilita el seguimiento, la depuración, el almacenamiento de puntos de control, la modificación de hiperparámetros , como la tasa de aprendizaje o la detención anticipada .
Múltiples idiomas
Admite C ++ para el backend optimizado para aprovechar al máximo la GPU o CPU disponible, y Python, R, Scala, Clojure, Julia, Perl, MATLAB y JavaScript para un frontend simple para los desarrolladores.
Portátil
Admite una implementación eficiente de un modelo entrenado en dispositivos de gama baja para inferencia, como dispositivos móviles (usando Amalgamation [10] ), dispositivos de Internet de las cosas (usando AWS Greengrass), computación sin servidor (usando AWS Lambda ) o contenedores . Estos entornos de gama baja solo pueden tener una CPU más débil o una memoria limitada (RAM), y deberían poder utilizar los modelos que se entrenaron en un entorno de nivel superior (clúster basado en GPU, por ejemplo).
Ver también
- Comparación de software de aprendizaje profundo
- Programación diferenciable
Referencias
- ^ "Versión 1.8.0" . 3 de marzo de 2021 . Consultado el 9 de marzo de 2021 .
- ^ "Construcción de redes neuronales profundas en la nube con máquinas virtuales de GPU de Azure, MXNet y Microsoft R Server" . Consultado el 13 de mayo de 2017 .
- ^ "Apache MXNet en AWS - Aprendizaje profundo en la nube" . Amazon Web Services, Inc . Consultado el 13 de mayo de 2017 .
- ^ "Construcción de redes neuronales profundas en la nube con máquinas virtuales de GPU de Azure, MXNet y Microsoft R Server" . Blogs de Microsoft TechNet . Consultado el 6 de septiembre de 2017 .
- ^ "MXNet - Marco de aprendizaje profundo de elección en AWS - Todo distribuido" . www.allthingsdistributed.com . Consultado el 13 de mayo de 2017 .
- ^ "Amazon ha elegido este marco para guiar la estrategia de aprendizaje profundo" . Fortuna . Consultado el 13 de mayo de 2017 .
- ^ "MXNet, el marco de aprendizaje profundo de Amazon, es aceptado en Apache Incubator" . Consultado el 8 de marzo de 2017 .
- ^ https://homes.cs.washington.edu/~guestrin/open-source.html
- ^ "Escalar el aprendizaje automático distribuido con el servidor de parámetros" (PDF) . Consultado el 8 de octubre de 2014 .
- ^ "Fusión" . Archivado desde el original el 8 de agosto de 2018 . Consultado el 8 de mayo de 2018 .