¿Necesito hacer una nueva optimización completa de una red neuronal para tener plenamente en cuenta una nueva observación?

Depende del algoritmo que estés usando.

La mayoría de las implementaciones básicas (de referencia) requieren que agregue nuevos datos al conjunto de capacitación y aprenda sobre el conjunto completo, incluidos los nuevos datos.

La razón es que el NN se optimizará de inmediato para minimizar el error en su nueva observación, pero tendrá una penalización cero por cualquier impacto negativo del cambio en los datos de entrenamiento anteriores.

Integrar los nuevos datos y volver a ejecutarlos no es especialmente costoso, supongo que se necesita menos de un segundo. Si ya ha cubierto, converger nuevamente es rápido.

Si tiene muchos datos de entrenamiento, entonces no necesita usarlos todos. También puede mantener un subconjunto de datos de entrenamiento y volver a entrenar solo con este subconjunto.

He visto una extensión de este enfoque llamada Pseudorehersal que no requiere que se guarden datos de entrenamiento; en su lugar, utiliza los pesos de la NN para autogenerar datos de entrenamiento plausibles y luego se vuelve a entrenar como si se tratara de datos de entrenamiento reales.

Hay algoritmos NN que permiten agregar nuevos puntos de datos. Estos se llaman algoritmos en línea . Ver por ejemplo http: //machinelearning.wustl.edu…

Digamos que estaba usando algo más poderoso, como un proceso de decisión de Markov multinivel.

Siempre es posible definir cualquier estructura de datos para que esté en forma recursiva para que se mantenga en orden óptimo a medida que agrega nuevos elementos, por ejemplo, árboles de equilibrio automático.

Por ejemplo, con estadísticas descriptivas simples puede mantener el tamaño de la población n sumas para X, Y, XY, X ^ 2 e Y ^ 2 , y en un solo paso, calcular la media, la varianza, la desviación estándar y el coeficiente de correlación.

Lo mismo se aplica a un MDP.

Si tiene que hacer una nueva optimización completa de una red neuronal para tener plenamente en cuenta una nueva observación, entonces su software no se escribió correctamente y debería quejarse en voz alta.

Generalmente no. Deberá realizar una iteración, pero no volver a entrenar desde cero.

Si la observación es simplemente otro punto de datos del mismo conjunto de datos, entonces simplemente puede hacer otra iteración, sin necesidad de optimizar / entrenar desde cero.

Por otro lado, si se trata de una tarea de aprendizaje de transferencia, entonces debes usar una técnica de aprendizaje de transferencia, como cortar las últimas capas y reemplazarlas con tus propias capas, usando Redes Neuronales Progresivas o usando la nueva técnica de mente profunda.

More Interesting

¿Por qué una máquina de aprendizaje extrema se llama inútil en comparación con el aprendizaje profundo?

¿Por qué los investigadores de aprendizaje automático no se preocupan por el número efectivo de épocas?

¿Qué piensa la comunidad de desarrollo web sobre TheGrid.io?

¿Tienes miedo de la automatización y los robots que toman tu trabajo?

Entre un escáner de códigos de barras de supermercados, un motor de búsqueda web, un menú telefónico activado por voz y un algoritmo de enrutamiento de Internet, ¿qué usa AI?

En el futuro, ¿será posible que la inteligencia artificial lidere una empresa como la inteligencia ejecutiva detrás de la estrategia?

¿Puedes hacer una IA en solo 10 líneas de código?

¿Puede pensar una máquina?

¿Qué tan independiente es realmente el robot de IA de Twitter de Microsoft, Tay?

¿Cómo es hacer investigación en planificación de movimiento?

¿Cómo venció la IA a los mejores humanos en el Texas Hold'em (enero de 2017)?

¿Crees que este auge de la IA es sostenible en contraste con los casos anteriores? ¿Qué lo hace diferente esta vez?

¿Qué tan buenos son los algoritmos generales de juego?

En los próximos tiempos, ¿los robots reemplazarán a los humanos por el cuidado de la vejez?

¿Cómo funciona el marco de aprendizaje automático SmartASS de Google y qué tan revolucionario es? ¿Qué modelos de ML aprovecha, quién lo creó, cuántas personas trabajan en él, cuántos servidores están dedicados a él?