Cuando se opera a gran escala (como la escala de Google), las operaciones de capacitación e inferencia son significativas ya que el aprendizaje automático se utiliza en docenas de sus aplicaciones. Por lo tanto, los costos de capacitación e inferencia, a menudo medidos como ejemplos / segundo / julio o ejemplos / segundo / $ es una métrica extremadamente eficiente para optimizar, y una implementación de hardware eficiente puede generar millones de dólares en ahorros inmediatos.
El hardware especializado, como los ASIC, proporciona una implementación eficiente de algoritmos de aprendizaje automático. Esto se debe a que, a diferencia de una CPU, no es necesario implementar hardware de almacenamiento en caché complejo, admitir docenas de extensiones heredadas y otro hardware no esencial que perjudica la eficiencia energética.
Sin embargo, una desventaja en su construcción es que requieren millones de dólares (y una gran experiencia) para fabricarlos. La ley de Moore ha asegurado que la fabricación de procesadores de última generación esté fuera del alcance de la mayoría de las nuevas empresas. Además, si aparece un nuevo algoritmo o una implementación más eficiente, el ASIC ya no es el más avanzado e incluso puede ser menos eficiente que las CPU. Por lo general, la ventaja de los ASIC se mantiene durante ~ 2 años antes de que los mejores algoritmos o modelos de CPU los eclipsen.
- ¿Qué todos los temas básicos debería saber si estoy entrevistando a un desarrollador C incorporado (4+ experiencia)?
- ¿Cuáles son las instrucciones de E / S utilizadas en 8051?
- ¿Cuáles son algunos temas muy importantes en los sistemas embebidos, que son interesantes y requieren un conocimiento previo de solo 'microprocesadores' y 'electrónica digital'?
- ¿Decidí mi proyecto b.tech como domótica basada en labview usando la placa arduino? ¿Qué piensa usted al respecto? ¿Qué parámetros se pueden considerar en este proyecto?
- ¿Cómo se asocian estas direcciones base con estas estructuras en C incrustado?
Sin embargo, recientemente las CPU no se están volviendo más rápidas / más eficientes como solían hacerlo en los años 90/00. Además, la implementación de convoluciones de eficiencia energética y otras operaciones matriciales básicas puede proporcionar importantes ahorros de energía sobre las CPU / GPU que hacen que todo este ejercicio valga la pena en el esquema actual de las cosas.