Su pregunta tendría más sentido si, en lugar de considerar las entradas en las imágenes, tenemos una sola imagen que se ve así:
[matemáticas] 342642346283 \ veces 7249247892 = [/ matemáticas]
Y el objetivo es tener una única red neuronal para resolverlo. Por supuesto, internamente usaría sumadores y multiplicadores, pero no representamos explícitamente el número completo, por lo que terminaría reconociendo dígitos en números en el rango 0–9, encontrando un separador entre ellos y luego aplicando la multiplicación ( u otra operación) algoritmo para números de varios dígitos.
- ¿Por qué decimos que la máquina de vectores de soporte y muchas otras técnicas de aprendizaje automático tienen un supuesto subyacente de iid?
- ¿Cómo y cuándo morirá la inteligencia de negocios convencional?
- Cómo ejecutar una sesión de tensorflow en un solo proceso y núcleo
- ¿Por qué PCA y LDA se usan juntas en el reconocimiento facial?
- ¿Qué es el 'aprendizaje automático de crowdsourcing'?
Resulta que esto es relativamente fácil de hacer para números cortos con redes recurrentes bastante simples, pero los números grandes son más difíciles, al igual que para los humanos, porque necesita rastrear demasiadas cosas a la vez. En otras palabras, el sistema no puede aprender cómo hacerlo. Aún así, existen técnicas para solucionarlo mediante métodos más sofisticados, como la atención. El resultado es este: si puede hacer que aprenda esto, podrá hacerlo mucho más rápido que los humanos (pero millones o más veces más lento que si solo usara una computadora para multiplicar números). Las razones son dos: las CPU modernas aún son más rápidas que las neuronas, incluso si simula una forma muy compleja de hacer algo simple, y arquitectónicamente los humanos tienen una pequeña memoria de trabajo (The Magical Number Seven, Plus o Minus Two – Wikipedia), para que puedan No paralelice la computación como una red neuronal de computadora podría tener que usar (muy lento) lápiz y papel para rastrear resultados intermedios.
Por supuesto, este problema solo es interesante en principio, porque en la práctica no querrá utilizar el aprendizaje automático para esto. Incluso si construimos un sistema de IA general, en efecto usaría el equivalente de una calculadora para esto en lugar de tratar de aprender cómo hacer esto de la manera en que lo hace un alumno de primer grado.