¿Por qué la arquitectura ARM no es adecuada para el aprendizaje automático?

Para extender la respuesta de Simon:

Las arquitecturas ARM, x86 y otras RISC o CISC deberían estar igualmente bien, siempre que un enfoque mayormente no paralelo sea suficiente y se utilicen métodos eficientes en hardware. Por ejemplo, si la CPU no tiene una unidad de punto flotante y el NN usa cálculos de punto flotante, obtendría un impacto significativo en el rendimiento. Las neuronas pueden usar aritmética de enteros / puntos fijos, pero la precisión se reduce.

Múltiples núcleos de CPU agregan rendimiento, por supuesto, pero no es hasta que llegue a miles de núcleos que obtiene un gran impulso, por ejemplo, para redes neuronales, y los cálculos para NN se paralelizan fácilmente. Es por eso que las GPU se usan cada vez más para el aprendizaje automático. También se consideran FPGA, que son aún más rápidos. Las GPU y FPGA también serían útiles para el procesamiento de señales, por ejemplo, FFT, etc.

ARM es un procesador adecuado para el aprendizaje automático, porque tiene una placa Zynq FPGA ARM, Qualcomm 835 ARM SoC y NVIDIA JETSON TX1 / 2.

El procesador ARM único no es adecuado para el aprendizaje automático. Esto es verdad. Sin embargo, el procesador Intel tampoco es adecuado para el aprendizaje automático. La longitud de la instrucción Intel SIMD es más larga y la tubería superescalar tiene más ancho que ARM. Sin embargo, esta es la olla que llama la tetera negra. GPU / ASIC / DSP / FPGA es lo mejor para el aprendizaje automático.

Al comprender este hecho, ARM es más adecuado para la integración de GPU / ASIC / DSP / FPGA porque solo proporcionan el diseño central, y los fabricantes de SoC implementan el semiconductor, por lo que los fabricantes de SoC pueden integrarse con otras GPU / DSP / FPGA por su cuenta. Sin embargo, Intel hace su procesador por sí mismo, y la placa base se vuelve muy grande, lo que dificulta la interfaz con GPU / ASIC / DSP / FPGA.

Es tan bueno o malo como cualquier otra CPU. Algunas técnicas de aprendizaje automático se implementan mejor en GPU, pero si está utilizando una CPU, no hay razón para que pueda elegir una sobre otra, excepto por el rendimiento

More Interesting

¿Cómo se mide el puntaje de precisión para cada clase cuando se prueba el clasificador en sklearn?

Cómo escribir una aplicación de IA que lea todos los tipos de registros de miles de servidores, enviar de vuelta a un cerebro de análisis de ML y proporcionar respuesta a cada servidor

¿Cuáles son algunos textos recientes sobre el aprendizaje a gran escala?

¿Por qué existe el temor de dominación de robots / IA cuando se pueden incorporar múltiples niveles de interruptores de muerte?

¿Cuál es el mayor obstáculo cuando se trata de realizar un ser humano como la IA?

¿Cómo y por qué una IA, como Skynet, desarrollaría y utilizaría una máquina capaz de viajar en el tiempo?

¿Cuál es la diferencia práctica entre clasificación, aprendizaje estadístico y reconocimiento de patrones en ML según los criterios de codificación?

¿Puede AI enojarse?

¿La neurociencia computacional está relacionada con la inteligencia artificial de alguna manera?

¿Cuál es la opinión de la India sobre la inteligencia artificial?

¿Cómo puede un más nuevo conseguir un trabajo en IoT, AI, ML o big data si es de una universidad de ingeniería de nivel 3?

¿Cuál es la percepción del trabajo de aprendizaje automático y el talento en Microsoft?

¿La IA será una amenaza para la humanidad mucho antes de lo previsto?

¿Cómo impactará la inteligencia artificial en el mercado laboral y la economía estadounidense?

¿Necesito un maestro para seguir el aprendizaje profundo de Computer Vision?