¿Cómo entrenar codificadores automáticos dispersos en imágenes?

No he trabajado con codificadores automáticos. pero he trabajado con ICA y escasa codificación.
Si lo hago bien:
cuando entrenas con parches no superpuestos, te metes en problemas. y cuando entrenas con parches recolectados al azar (que pueden superponerse), obtienes el entrenamiento correcto.

considera lo siguiente en tu entrenamiento:
compare el número de parches en dos enfoques. Más parches necesitan más iteraciones.
Creo que encontrar detectores de borde no necesita la comprensión total de la imagen (por ejemplo, incluir objetos en ella). Además, puede ver muchos diccionarios en la literatura que están entrenados en diferentes parches de diferentes imágenes. así que creo que tu último punto no parece razonable. los átomos del diccionario solo necesitan ser poderosos para capturar regularidades en la imagen y pueden representar un parche de imagen mediante combinaciones de átomos.

More Interesting

¿Qué significa decir: "En la geometría de la información, el paso E y el paso M se interpretan como proyecciones bajo dos conexiones afines"?

¿Qué es el remuestreo en el aprendizaje automático?

¿Se pueden mapear los datos de entrada circulares (como la fase de una sinusoide) en un espacio de características lineales usando un núcleo lineal usando SVM? Si no, ¿qué núcleo es óptimo para datos de entrada circulares?

¿Se puede utilizar el aprendizaje no supervisado en el reconocimiento de imágenes?

Estoy muy interesado en el aprendizaje profundo. ¿Cómo puedo ser contratado?

¿Cómo implementaría el servicio de noticias de Quora?

Los algoritmos de ML escritos en Java funcionan bien para un conjunto de datos más pequeño. Para un conjunto de datos grande, ¿cómo podemos escalar estos algoritmos? ¿Necesitamos buscar algoritmos distribuidos / mapas distribuidos en memoria / NOSQL / archivos para leer y escribir grandes conjuntos de datos o hay alguna buena API?

¿Por qué es importante el aprendizaje no supervisado?

Los algoritmos parecen estar involucrados con muchas partes de nuestras vidas. ¿Qué son y cómo podría aprender más?

¿Cuál es la relevancia de la factorización matricial en el aprendizaje profundo?

En una red neuronal, ¿cómo podemos resolver (o limitar) el problema de la saturación de las neuronas?

¿Cuál es el entorno libre de distribución en la teoría del aprendizaje estadístico?

¿Cuál es el mejor marco de aprendizaje profundo que puedo usar para clasificar las imágenes de resonancia magnética? ¿Keras es adecuado para eso?

¿Cuál es el análisis de opinión en el caso de TripAdvisor? ¿Como funciona?

¿Es Theano (biblioteca de Python ML) una buena biblioteca si quiero crear una aplicación comercial?