¿Vale la pena aprender Machine Learning (y AI) si quiero seguir la carrera de Ingeniero Embebido?

Como Alec Cawley ha mencionado, los sistemas embebidos generalmente están limitados por los ciclos de CPU, el consumo de energía y la memoria porque la mayoría están desarrollados para realizar tareas muy específicas.

El costo de los ciclos de CPU y la memoria ha disminuido a lo largo de los años, por lo tanto, el sistema embebido se puede desarrollar con sistemas operativos de alta gama, como Linux embebido, particularmente para aplicaciones que involucran imágenes y robótica.

La IA desempeñará un papel en los sistemas integrados, pero la IA está más arriba en la pila y es realmente un campo en sí mismo eliminado de la interfaz de hardware que son los sistemas integrados.

En este momento, si está interesado en la IA, es mejor que cambie de sistemas integrados. La inteligencia artificial y el aprendizaje automático están de moda y continuarán creciendo en el futuro, por lo que si está comenzando y ama el trabajo que hizo en el aprendizaje automático, le recomiendo que obtenga un trabajo seguro en este campo.

Sí, vale la pena, de hecho creo que es muy sabio aprenderlo para asegurar su carrera como desarrollador integrado.

Se está haciendo un mayor esfuerzo para realizar inferencias en dispositivos de borde, para superar el cuello de botella de ancho de banda, los problemas de seguridad y privacidad. La IA basada en la nube por sí sola no es sostenible en la era de IoT para permitir que cientos de millones de dispositivos realicen tareas de IA / ML solo cuando están conectados a la nube.

Puedo ver un futuro cercano donde habrá grandes demandas para que los desarrolladores implementen aplicaciones AI / ML en sistemas embebidos para ejecutarse en el borde.

Las empresas son conscientes de eso, y cada una lo aborda en línea con su negocio, ya sea lanzando bibliotecas de pequeño tamaño, ampliando las capacidades actuales de hardware o incluso diseñando nuevas arquitecturas de hardware.

Aquí hay algunos enlaces útiles:

Machine Learning avanzando hacia el borde de la red

Los nuevos núcleos de redes neuronales aumentan la eficiencia en microcontroladores en ~ 5x

Arma la tecnología DynamIQ para la próxima era de cómputo

EdgeML: Edge Machine Learning

Aprendizaje federado: aprendizaje automático colaborativo sin datos de entrenamiento centralizados

Los procesadores de red neuronal (NNP) Intel® Nervana ™ redefinen el silicio AI – Intel AI

Nvidia empuja la informática al límite

Sí, eso creo. La IA integrada eventualmente será una Cosa, y tendrá dificultades para participar en el futuro sin los fuertes fundamentos matemáticos desde el principio. Especialmente valioso, creo, para obtener un poco de experiencia en visión por computadora.

Pero al mismo tiempo, ese futuro aún no está realmente aquí, y necesita obtener una base realmente sólida ahora. Todavía debe pasar la mayor parte de su tiempo en EE y codificación integrada. Las otras cosas deberían ser solo un curso o dos.

Bueno, definitivamente vale la pena aprender, pero no profundice porque el aprendizaje automático es un campo muy amplio como tal. Solo estudia las cosas que necesitarás. Sugeriría aprender solo sobre visión artificial, eso sería más que suficiente en la mayoría de los casos. Ahora, por lo que te sugiero que no profundices mucho es porque aprender sobre el aprendizaje automático y la IA también requiere mucho tiempo y es complejo. Por lo tanto, sería mejor si usa el mismo tiempo para aprender cosas de sistemas integrados.

Machine Learning + Embedded es el futuro. Ve a por ello.

No he oído hablar de ningún proyecto en el campo Embebido utilizando Machine Learning o AI. La mayoría de las personas que comisionan sistemas embebidos tienen ideas bastante fuertes de lo que quieren que hagan. Por el contrario, el poder de procesamiento necesario para ejecutar la mayoría de los sistemas de aprendizaje automático es tal que el hardware necesario para ejecutarlo también puede ejecutar un sistema Linux completo. Los sistemas embebidos verdaderos tienden a ejecutarse en hardware con un costo de lista de materiales para la computadora de menos de $ 10 y tamaños de memoria de un megabyte o menos. Pero para ejecutar un sistema de inteligencia artificial, generalmente se habla de mucha más memoria y potencia de procesamiento. Una vez que tiene suficiente memoria y CPU para ejecutar un sistema de inteligencia artificial, le cuesta poco hacerlo en modo de usuario con todos los beneficios de seguridad que trae.

Normalmente no son áreas que escucho en la misma oración.

No digo que no haya trabajos como este, simplemente no los he escuchado. Cuando pienso en incrustado, pienso en personas con un CE, tal vez incluso un fondo de EE, y pienso en un nivel bajo.

Tal vez si estuviera usando ML para optimizar algo de bajo nivel para que funcione de manera óptima dadas ciertas restricciones que podría tener algo. Pero no veo que sea un trabajo de tiempo completo a menos que esté trabajando en investigación (y probablemente tenga un doctorado o algo por el estilo).

También, por el amor de Dios, deja de decir AI si no es aplicable. ¿Qué quieres decir con IA? ¿Solo ML como un subconjunto? Entonces solo quédate con ML.