Además de la respuesta de Eric que menciona el enfoque de Nvidia en el aprendizaje profundo utilizando GPU y los enigmáticos TPU de Google, hay otros jugadores que apuestan por hardware especializado para el aprendizaje profundo.
Sin embargo, la mayoría de los mismos se centran actualmente en redes neutrales convolucionales [1] [2]. Esta deriva no es inesperada, ya que las CNN han mostrado resultados extremadamente interesantes para las tareas de visión por computadora y, posiblemente, la visión por computadora tiene el caso de uso más interesante actualmente (autos sin conductor, realidad aumentada, drones …). La razón para elegir el diseño ASIC es una victoria obvia para los sistemas de restricción de energía.
Sin embargo, esta tendencia ciertamente no se detendrá en los ASIC. El futuro cercano traerá más diversidad. En mi humilde opinión, FPGA son extremadamente adecuados para esta tarea, especialmente dado que la arquitectura de “modelos profundos” está evolucionando muy rápidamente. Los FPGA están perfectamente ubicados en la curva de flexibilidad vs eficiencia. (Los FPGA son sustratos programables en comparación con los ASIC de arquitectura fija). La adquisición por parte de Intel de los sistemas Alerva y expertos en aprendizaje profundo FPGA Nervana lo coloca en el punto óptimo para avanzar en la carrera por dicho dispositivo.
- ¿Es cierto que las Redes Adversarias Generativas (GAN) aprenden la función de pérdida automáticamente, y si es así, cómo?
- Codificación dispersa: ¿cuál es la implementación paso a paso para la codificación dispersa? ¿Qué representa la norma l0 / norma l1 / regularización?
- ¿Cuánto importa el aprendizaje automático en ciencia de datos?
- Intuitivamente, ¿cómo afecta el tamaño del mini lote al rendimiento del descenso de gradiente (estocástico)?
- ¿Qué habilidades de programación / habilidades informáticas debo aprender si quiero especializarme en visión por computadora y aprendizaje automático?
Otra plataforma digna de atención de IBM se basa en ideas similares a las “redes neuronales artificiales”, pero adoptan una forma diferente de representar el algoritmo. Adoptan una visión más “centrada en las neuronas” para lo mismo. Podría decirse que IBM es la vanguardia de este frente con su chip de investigación: True north [3]. Estos no han sido capaces de igualar el nivel de precisión más avanzado, sin embargo, se ha demostrado que son mucho más eficientes energéticamente que otras soluciones. Si ofrecen precisión en el futuro, será extremadamente emocionante ver a otros tratando de ponerse al día. Otra mención de honor es que esta categoría es Spinnaker [4].
El hardware especializado seguramente será un factor importante en la carrera de aprendizaje profundo. Sin embargo, aún más interesante sería ver cuánto papel juega el aprendizaje profundo en el cambio de hardware (para comenzar con lo que sería CPU vs GPU vs (digamos) ruptura de TPU del área de silicio en un SoC) en un futuro próximo.
[1] Tecnología: Nervana Engine – Nervana
[2] Brazas | Tecnología de visión artificial | Movidius
[3] Chip inspirado en el cerebro
[4] SpiNNaker