Hay un montón de personas que hacen máquinas para el “aprendizaje profundo” y otras personas que trabajan en máquinas para ejecutar los resultados de dicho aprendizaje (quizás redes neuronales).
Las personas con las que he hablado recientemente están haciendo máquinas para TensorFlow, una está usando procesadores que no son de Von-Neumann a 8GHz.
Dado que estas máquinas están dirigidas a un uso particular, son esencialmente específicas de la aplicación, por lo que los ASIC.
- ¿Por qué los niveles de volumen de sonido no son redondos? Por ejemplo, la Mac tiene 16 niveles, el estéreo de mi auto tiene 32 y el estéreo de un amigo tiene 62.
- ¿Cuáles son las unidades de medida más comunes en informática y qué miden?
- ¿Cómo convierte Quora la URL en texto legible?
- ¿Cuáles son las diferencias entre una computadora en clúster y un sistema distribuido?
- ¿Debería sentirme mal por tener mejores habilidades de gestión que las habilidades de programación como estudiante de informática?
Un problema es que pocas personas saben cómo construir procesadores no específicos para tareas altamente paralelas (/ muchos puntajes), por lo que terminan usándolos en conjunto con (digamos) Xeons para ejecutar cosas del sistema operativo.
Hay formas de programar manycore (http://parallel.cc), pero admitir todo el código antiguo es un problema (otras) que las personas aún no han resuelto, por lo que la ruta del coprocesador es la norma. Lo mismo ocurre con GP-GPU que han existido por un tiempo, y Xeons con FPGA.