Estoy acostumbrado a codificar con C ++ y C #. ¿Cuál recomendaría implementar proyectos de ML a pequeña escala (NN y CNN clásicos) sin reinventar la rueda?

Caffe no está diseñado para proyectos a pequeña escala, depende de OpenCV, boost y algunos sistemas de bases de datos. En cambio, está diseñado para el entrenamiento a gran escala de redes neuronales con funciones de GPU habilitadas.

Recomendaría mi proyecto actual, http://liangfu.github.io/dnn, está completamente diseñado para proyectos de ML a pequeña escala. Y como lo requirió, está escrito en C ++, con implementación de NN clásico (FullConnectLayer), CNN (ConvolutionLayer), RNN (RecurrentNNLayer), aunque algunas de las características aún están en desarrollo.

Otra recomendación son

  • https://github.com/nyanp/tiny-cnn base de código muy pequeña, requiere un compilador moderno
  • https://github.com/xingdi-eric-y… basado en opencv
  • http://libccv.org/ escrito en C puro, con modelos entrenados con AlexNet, disponibles para teléfonos móviles.

Mira a Caffe. Está en C ++ y debería ser suficiente para ti.

More Interesting

¿Cuál es el libro recomendado sobre 'plasticidad neuronal' para informáticos, programadores o profesionales de aprendizaje profundo?

¿Qué otros algoritmos / métodos se pueden usar como alternativa al algoritmo vecino más cercano para la medición de distancia y cuál funciona mejor que NN?

¿Qué matemática debería revisar / aprender si quiero comprender a fondo el modelado de efectos mixtos / modelado de regresión?

Dadas las variables / parámetros continuos, ¿cuál es la diferencia entre el aprendizaje automático y la interpolación?

¿El aprendizaje automático es algo que no llegará demasiado lejos si no tiene la formación académica adecuada? Dado que hay tanto en Internet, ¿se puede entender?

¿Cuál es la mejor manera de manejar múltiples brazos en algoritmos de bandidos?

¿Qué aplicaciones iOS usan TensorFlow del lado del cliente?

¿Se puede usar una máquina de Boltzmann profunda para la clasificación de imágenes en una base de datos que tiene solo mil imágenes y tiene características de imagen de valor real como unidades de entrada (en lugar de unidades de píxeles binarios)?

¿Cómo está estudiando Conner Davis el aprendizaje automático?

Durante la validación cruzada k-fold, ¿cuáles son algunas soluciones posibles cuando la varianza de las estimaciones de error de prueba es muy alta?

¿Cuáles son las deficiencias del aprendizaje profundo? ¿Cuál es el mayor defecto o limitación del aprendizaje profundo?

¿Cuáles son los mejores algoritmos para el conjunto de datos de preservación de la privacidad?

¿Podría una red neuronal aproximarse a un sistema de ecuaciones diferenciales ordinarias y parciales?

¿Qué hace que un modelo sea interpretable?

¿Qué tan buenos antecedentes en ML ofrece el curso Coursera Machine Learning a alguien?