Una forma es hacer esto mediante el aprendizaje de transferencia : capacite una red neuronal en datos o tareas similares (pero no iguales), y luego reutilice las funciones aprendidas en una tarea de una sola vez.
Un ejemplo fácil de explicar es las redes siamesas para el aprendizaje de una sola vez: una red neuronal se entrena en un gran conjunto de datos de símbolos dibujados a mano (llamado omniglot) para decidir si dos imágenes son del mismo símbolo o no.
Luego, para aprender de una sola vez, compara una imagen de prueba con varias imágenes, cada una de un símbolo diferente que nunca antes se había visto. Clasifica la imagen de prueba como el símbolo del conjunto de soporte que considera más probable que sea del mismo tipo. Esto puede obtener hasta un 92% de precisión en promedio (los humanos obtienen 95.5%)
- ¿Qué es el análisis de componentes principales?
- ¿Cuál es la diferencia entre regresión lineal y logística?
- ¿Cómo descifrar cualquier entrevista de aprendizaje automático? ¿Qué tipo de preguntas debo esperar? Qué tipos de proyectos paralelos relevantes se verían bien en un CV
- ¿Cuáles son las propiedades utilizadas para agrupar partículas en tipos?
- ¿Qué significa cuando obtengo buenos resultados de la medida F con un CV de 10 veces pero resultados pobres en los datos de la prueba, resultados similares si participo el conjunto de datos original en el conjunto de entrenamiento / validación? Obtengo buenos resultados en la validación pero malos resultados en el conjunto de pruebas.
Pero el omniglot es una tarea relativamente simple: el problema del aprendizaje de una sola vez aún está muy, muy lejos de ser “resuelto”.