Hay tres características a tener en cuenta para tener éxito en la capacitación de un NN de aprendizaje profundo (DNN) en “datos grandes”.
(1) Soporte de GPU optimizado
(2) Algoritmos DL de última generación
(3) Soporte distribuido
Aquí está mi lista clasificada de marcos DNN de código abierto. La presencia del número indica el soporte mejor clasificado para dicha función.
- Cómo realizar un detector de rectángulo con un fondo y un primer plano complejos
- ¿Cuáles son las mejores herramientas de última generación para la extracción de información en Python?
- Hay muchas distribuciones de probabilidad presentes en las estadísticas, ¿cómo debería uno usarlas? En general, veo personas que usan distribución gaussiana en algoritmos de aprendizaje automático.
- ¿Qué son las máquinas complejas?
- ¿Cuándo debo coseno similitud? ¿Se puede usar para la agrupación?
# 1 Torch (1) (2): utilizado por Google DeepMind y FaceBook
# 2 Theano (1) (2) – Universidad de Montreal, algoritmos innovadores de la investigación
# 3 Caffe (1) (2) – Líder en redes de convolución, modelos entrenados
# 4 Neon (1) – CUDA altamente optimizado, startup bien financiada.
# 5 TensorFlow (1) (2) (3?) – Desplegado en Google
# 6 Deeplearning4J (1) (2) (3) – Muy activo
# 7 H2O (2) (3): inicio sólido con muchos fondos.
# 8 mxnet (1) (2) (3) – Muy activo.
# 9 Veles (1) (3) – Samsung
# 10 Spark MLLib (3) – Módulo de aprendizaje profundo recién lanzado
Mención de honor: Kaldi (2)
Nota 1: Los marcos basados en Theano (es decir, Keras, Lasaña, Bloques, etc.) no se enumeran aquí y deben considerarse parte del ecosistema de los padres.
Nota 2: La clasificación es subjetiva y puede cambiar con el tiempo. Abierto a comentarios y sugerencias. Lista compilada en noviembre de 2015
Nota 3: la clasificación incluye solo los 10 marcos principales