Dado que las redes neuronales de retardo de tiempo (TDNN) requieren una entrada secuencial con cierto retraso, esta es una idea.
Dada una cuadrícula de entrada MNIST que es [matemática] 28 × 28 [/ matemática] utilice una ventana deslizante de muestreo de tamaño [matemática] w × h [/ matemática] donde [matemática] w <= 28 [/ matemática] y [matemática] h <= 28 [/ matemáticas]. Esto significa que la ventana se escaneará:
[matemáticas] P = [/ matemáticas] [matemáticas] (28 – w + 1) × (28 – h + 1) [/ matemáticas]
- ¿Qué tipo de ciencia de datos o información relacionada con el aprendizaje automático pagaría una empresa?
- Cómo obtener una pasantía de investigación del profesor en la NYU en proyectos que necesitan experiencia en minería de datos o aprendizaje automático
- ¿Cuáles son algunos de los temas candentes que se están investigando actualmente en la escucha de máquinas / procesamiento de audio?
- Cómo ingresar a un programa de doctorado en la mejor escuela de EE. UU. En inteligencia artificial, visión artificial y aprendizaje automático
- ¿Cuántos 50 mg / ml hay en un vial de 10 ml de EP?
Posiciones, comenzando desde la esquina superior izquierda hasta la esquina inferior derecha. Esto produce entradas secundarias [matemáticas] P [/ matemáticas] para un solo dígito MNIST.
Si asumiendo que [math] w [/ math] y [math] h [/ math] son ambos iguales a 14, cada dígito MNIST produce subinsumos [math] 15 × 15 [/ math] en los que podemos introducir un retraso [math] t_ {d} [/ math] entre cada entrada secundaria antes de alimentar al TDNN, por lo tanto, deliberadamente cambiando un dígito MNIST espacial en una señal espacial-temporal que el TDNN puede procesar.
También es posible utilizar una ventana [matemática] w = 28 [/ matemática] y [matemática] h = 28 [/ matemática] para obtener una sola entrada secundaria. Esto efectivamente colapsa el TDNN a una red neuronal convencional.
Espero que esto ayude.