Lo que he entendido de esta pregunta es que tiene datos sin procesar de bytes que representan una imagen y se pregunta cuál es la deferencia entre dos modelos, uno usa los datos sin procesar como entradas y otro usa la imagen completa.
Si esa es su pregunta, entonces la respuesta es que cada método y ANN profundo difieren por la forma en que maneja los datos LSTM lo manejan byte a byte para que capture la dependencia del orden de los bytes a los que se introducen.
ConvNets captura los patrones de datos dentro de su ventana para que una capa no capture la dependencia de dos patrones separados unos de otros. Supongamos que tiene una secuencia de datos numéricos que representan la intensidad de la luz de cada píxel en la fila principal y un ConvNet 1D multicapa. Esta red capturará el patrón, pero cada capa combina los patrones de la misma manera (en la fila principal), lo que le será difícil capturar la dependencia entre una fila y otra.
Entonces, ¿por qué usamos 2D ConvNet? porque como humanos identificamos el patrón en las imágenes en las dos dimensiones mirando la imagen completa, no mirándola línea por línea. Eso hace que el patrón se extienda en la línea del multiplicador y hace que el 2D ConvNet sea bueno para identificarlo.
- ¿Qué opina de Sophia, el robot de IA?
- ¿Qué es un bot?
- ¿Cómo es tomar CS 181 (Machine Learning) en Harvard? ¿Por qué tiene un puntaje Q tan bajo cuando lo enseña Ryan Adams?
- ¿Cuál es el mejor chatbot basado en preguntas frecuentes?
- ¿Cómo puede un más nuevo conseguir un trabajo en IoT, AI, ML o big data si es de una universidad de ingeniería de nivel 3?