Sí, hay más, por ejemplo, MXNet: un marco escalable de aprendizaje profundo
No estoy seguro, creo más nuevo; Con el lenguaje Julia tuve la impresión de que podría ser mejor.
Tenga en cuenta que, como dicen, MXNet también es para Python, y también hay un contenedor de Julia para TensorFlow. Puede usarlo de esa manera, sin Python, o cualquier código Python o envoltorio de Julia. Supongo que al menos los conceptos, no los pasos exactos, de las guías de Python, se traducen a Julia y, en ese caso, a su contenedor.
- ¿Qué profesores / grupos / laboratorios están trabajando en el aprendizaje profundo en el MIT?
- Cómo obtener una pasantía de investigación del profesor en la NYU en proyectos que necesitan experiencia en minería de datos o aprendizaje automático
- ¿En qué debería concentrarme después de aprender el aprendizaje automático si no estoy interesado en el aprendizaje profundo?
- ¿Cuál es la diferencia entre la clasificación de vectores de soporte y la regresión? ¿Un regresor de vectores de soporte se comporta como una red neuronal por casualidad?
- ¿Cómo se pueden engañar los modelos de clasificación existentes?
Creo que Julia es el futuro para mucha programación, por ejemplo, ciencia de datos y ML; pero no puedo decir mucho sobre ninguna biblioteca específica.
Hay algunos hardware de red neuronal interesantes, más allá de las GPU, supongo que TensorFlow tiene la ventaja allí, con las Unidades de Procesamiento de Tensor (TPU) de Google, si tuviera acceso a ellas. Creo que aún no en el mercado abierto …
Desde hace poco más de un mes, Google reclamó implicaciones de traducción automática de redes neuronales, con TF y TPU. Así que supongo que están lejos de estar desactualizados, al menos si quieres trabajar para ellos …
Microsoft y sus bibliotecas también parecen tener una optimización interesante (“1 bit”).