Podría decirse que las GPU de NVIDIA están cada vez más especializadas para el aprendizaje profundo. Las decisiones de diseño tomadas en su última microarquitectura de GPU (Pascal) reflejan la gran inversión de la compañía en impulsar arquitecturas de aprendizaje profundo.
Nervana systems también está trabajando en hardware personalizado para Deep Learning. Están mirando un enfoque de pila completa.
Sospecho que varios fabricantes de FPGA también están realizando serias actividades de I + D en tableros especializados para Deep Learning. No conozco ninguna compañía en particular, pero veo muchas tesis de maestría / doctorado relacionadas con esto. De hecho, un conocido mío hizo un trabajo relacionado con la implementación del aprendizaje profundo en hardware aritmético de precisión de registro, y ahora está trabajando en una destacada empresa tecnológica conocida por su hardware.
- ¿Cómo funcionan las redes de propuestas regionales (RPN)?
- Ciencias de la computación: ¿Cuáles son los pros y los contras de utilizar el modelado de procesos gaussianos para la regresión?
- ¿Es C ++ un buen lenguaje para el aprendizaje automático?
- Cómo configurar Sublime Text para el entorno de Machine Learning
- ¿Puede el conocimiento del dominio ayudar a usar menos datos de entrenamiento, cuando se entrena una red neuronal convolucional para una aplicación específica?
Creo que una inversión seria en innovación de hardware (no solo el costo de producir una placa, sino también reclutar talentos raros de EE + DL) solo es rentable una vez que desea producir en masa una gran cantidad de hardware de aprendizaje profundo optimizado.
Otra área que podría usar muchas mejoras en el futuro serán los núcleos del sistema operativo que están optimizados para este tipo de cosas.