El aprendizaje de transferencia (es decir, cortar la última capa de una red neuronal y luego entrenar a un clasificador más simple, por ejemplo, un SVM) es una forma muy común de aprender rápidamente un clasificador en algunos ejemplos. Hay otra idea relacionada llamada ajuste fino, en la que usa un modelo inicial (digamos entrenado en imagenet) y luego actualiza los pesos del modelo en sus nuevos datos. Estas ideas se han utilizado con éxito en la visión.
Después de haber intentado y jugado con ambos enfoques, esto es lo que he visto. El aprendizaje de transferencia es útil cuando tiene pequeñas cantidades de datos. Es rápido y fácil entrenar modelos. Además, obtienes un modelo decente. El ajuste fino requiere actualizar el modelo profundo y lleva tiempo (requiere volver a ejecutar el aprendizaje de la red neuronal). También requiere una cantidad decente de datos. Si puede permitirse el lujo de entrenar una red neuronal de extremo a extremo en sus datos, puede intentar un ajuste fino, pero si desea construir algo rápido y / o actualizarlo regularmente, el ajuste fino podría ser el camino a seguir.
- ¿Qué significa "tomar la media geométrica de la distribución predictiva producida por las redes de abandono exponencialmente numerosas" en redes neuronales profundas?
- ¿Hay alguna empresa de software en Bangladesh que trabaje con ciencia de datos / ML / ANN / Visión por computadora?
- Procesamiento del lenguaje natural: ¿Cuáles son algunas ideas de problemas / proyectos sobre la clasificación jerárquica de textos?
- Visión por computadora: ¿Existe un servicio que, dada una imagen, le dice lo que representa?
- ¿Por qué los nodos en una capa oculta producen resultados diferentes (cuando se basan en las mismas entradas)?