¿No tener datos temporales en el vector de entrada hace que un RNN-LSTM sea inútil en comparación con otros NN si su salida es una secuencia temporal?

De ningún modo. Aquí hay una imagen de esta publicación: La efectividad irracional de las redes neuronales recurrentes

Tenga en cuenta que incluí esta muy buena publicación de blog de Andrej Karpathy en mi increíble lista de lectura de aprendizaje profundo, donde puede encontrar otras buenas lecturas en redes neuronales recurrentes: guillaume-chevalier / Awesome-Deep-Learning-Resources.

Así que asumiste que las redes neuronales son útiles solo en el “caso de muchos a uno”. De hecho, la única red neuronal en esa imagen que no es una red neuronal recurrente es la más a la izquierda. Observe también que cada cuadrado representa un vector de neuronas.

Hay dos configuraciones de muchas a muchas. El que está en el extremo derecho es un RNN simple que tiene una entrada y salida en cada paso de tiempo. El que está directamente a su izquierda se llama seq2seq, y he hecho un proyecto aquí para aprender cómo usarlos con TensorFlow: guillaume-chevalier / seq2seq-signal-prediction

¡A disfrutar!