¿Cómo se puede optimizar un sistema si la variable principal de la función objetivo se modela a través de un modelo de Machine Learning?

Es muy difícil para mí entender esto, dada la pequeña porción de contexto que ha proporcionado, pero si lo entiendo correctamente, supongo que debería funcionar así. Si tiene el modelo de regresión ML (que supongo que tiene en un formato de función o algo con lo que puede consultar / verificar los valores) para el retraso contra varios otros factores, entonces supongo que de alguna manera puede acceder o leer los valores para el retraso y valores para los otros factores.

Entonces, dada una situación o configuración de estos factores, básicamente conecte el valor de retraso en el modelo de regresión de ML, y luego mire el valor más bajo de retraso en el modelo de ML y observe los otros factores / variables vinculados a él. Luego, básicamente, obtenga el delta de esas variables desde su posición actual arbitraria y sus valores donde el retraso es más bajo, luego simplemente aumente o baje las variables por esos deltas para llevar el retraso a su nivel más bajo. Si el retraso es una función de esas variables, entonces eso debería hacerlo.

Podría estar malinterpretando algo, en cuyo caso necesitaría más información para trabajar, pero dado mi nivel de comprensión, eso es lo que haría.