No he trabajado con codificadores automáticos. pero he trabajado con ICA y escasa codificación.
Si lo hago bien:
cuando entrenas con parches no superpuestos, te metes en problemas. y cuando entrenas con parches recolectados al azar (que pueden superponerse), obtienes el entrenamiento correcto.
considera lo siguiente en tu entrenamiento:
compare el número de parches en dos enfoques. Más parches necesitan más iteraciones.
Creo que encontrar detectores de borde no necesita la comprensión total de la imagen (por ejemplo, incluir objetos en ella). Además, puede ver muchos diccionarios en la literatura que están entrenados en diferentes parches de diferentes imágenes. así que creo que tu último punto no parece razonable. los átomos del diccionario solo necesitan ser poderosos para capturar regularidades en la imagen y pueden representar un parche de imagen mediante combinaciones de átomos.
- En el procesamiento del lenguaje natural para realizar análisis semántico, ¿es útil y necesario generar un árbol de análisis?
- ¿Cuál es la diferencia entre un ingenuo clasificador Bayes y una red bayesiana?
- ¿Qué se entiende exactamente por pesos compartidos en una red neuronal convolucional?
- ¿Por qué el uso de información mutua / ganancia de información / funciones similares funciona mejor que simplemente usar el error promedio (usando probabilidad) para un booleano (conjunto de datos de 2 clases) al construir un árbol de decisión?
- En clasificación, ¿cómo manejas un conjunto de entrenamiento desequilibrado?