Para extender la respuesta de Simon:
Las arquitecturas ARM, x86 y otras RISC o CISC deberían estar igualmente bien, siempre que un enfoque mayormente no paralelo sea suficiente y se utilicen métodos eficientes en hardware. Por ejemplo, si la CPU no tiene una unidad de punto flotante y el NN usa cálculos de punto flotante, obtendría un impacto significativo en el rendimiento. Las neuronas pueden usar aritmética de enteros / puntos fijos, pero la precisión se reduce.
Múltiples núcleos de CPU agregan rendimiento, por supuesto, pero no es hasta que llegue a miles de núcleos que obtiene un gran impulso, por ejemplo, para redes neuronales, y los cálculos para NN se paralelizan fácilmente. Es por eso que las GPU se usan cada vez más para el aprendizaje automático. También se consideran FPGA, que son aún más rápidos. Las GPU y FPGA también serían útiles para el procesamiento de señales, por ejemplo, FFT, etc.
- ¿Es nuestro deseo de crear una IA impulsado por la comprensión de que hemos alcanzado el colmo de la inteligencia humana?
- ¿Qué pasaría si los robots de IA aprendieran a reprogramar su propio programa?
- ¿Pueden las máquinas hacer preguntas inteligentes e interesantes?
- ¿Cómo debo comenzar el aprendizaje automático? ¿Cuáles son los requisitos previos?
- ¿Qué evento específico podría llevar a una computadora a ser consciente de sí misma?