Depende del algoritmo que estés usando.
La mayoría de las implementaciones básicas (de referencia) requieren que agregue nuevos datos al conjunto de capacitación y aprenda sobre el conjunto completo, incluidos los nuevos datos.
La razón es que el NN se optimizará de inmediato para minimizar el error en su nueva observación, pero tendrá una penalización cero por cualquier impacto negativo del cambio en los datos de entrenamiento anteriores.
- ¿La IA es parte de la robótica o la robótica es parte de la IA?
- Con experiencia en ciencias médicas, ¿cómo ingreso a la IA y la robótica?
- ¿Qué tan lejos estamos de un contestador automático de preguntas que podría responder a todas las preguntas sobre Quora casi tan bien como la mayoría de los humanos?
- ¿Qué tan bueno es TensorFlow como una biblioteca de aprendizaje profundo y qué otras bibliotecas se deben tener en cuenta?
- ¿Podemos formar amistades con los árboles? ¿Cómo pueden los árboles mejorar la salud mental?
Integrar los nuevos datos y volver a ejecutarlos no es especialmente costoso, supongo que se necesita menos de un segundo. Si ya ha cubierto, converger nuevamente es rápido.
Si tiene muchos datos de entrenamiento, entonces no necesita usarlos todos. También puede mantener un subconjunto de datos de entrenamiento y volver a entrenar solo con este subconjunto.
He visto una extensión de este enfoque llamada Pseudorehersal que no requiere que se guarden datos de entrenamiento; en su lugar, utiliza los pesos de la NN para autogenerar datos de entrenamiento plausibles y luego se vuelve a entrenar como si se tratara de datos de entrenamiento reales.
Hay algoritmos NN que permiten agregar nuevos puntos de datos. Estos se llaman algoritmos en línea . Ver por ejemplo http: //machinelearning.wustl.edu…