Supongo que al minimizar se entiende minimización restringida y, por simplicidad, supongamos que todas las restricciones son restricciones lineales. Además, supongo que su función objetivo no es [matemática] e ^ x [/ matemática] sino un exponente de una combinación lineal de [matemática] x [/ matemática], es decir, [matemática] f (x) = e ^ { c ^ Tx} [/ matemáticas]. Entonces el problema de optimización se convierte en –
[matemáticas] min_x \ e ^ {c ^ Tx} [/ matemáticas]
st [matemáticas] Ax \ leq b [/ matemáticas]
y [matemáticas] x> 0 [/ matemáticas]
Dado que la función exponencial aumenta monotónicamente, la optimización de [math] f (x) [/ math] es equivalente a la optimización de [math] \ log f (x) [/ math]. Por lo tanto, el problema de optimización anterior se reduce a:
- ¿Qué hace exactamente esta función, tf.nn.embedding_lookup (), en TensorFlow?
- Cómo decidir si usar modelos de aprendizaje automático supervisados o de refuerzo
- Cómo obtener una posición de RA en el Grupo de Aprendizaje Automático de Microsoft Research India
- ¿A quién demuestra que los núcleos radiales son núcleos válidos? ¿Cómo se muestra esto mediante la integración de características?
- ¿El CAPM está muerto, en el sentido de que el aprendizaje automático moderno y el modelado financiero han hecho que su aplicación en el mundo real sea redundante?
[matemáticas] min_x \ c ^ Tx [/ matemáticas]
st [matemáticas] Ax \ leq b [/ matemáticas]
y [matemáticas] x> 0 [/ matemáticas]
que es un programa lineal y puede usar cualquier solucionador estándar (como Gurobi Optimization, Inc., IBM CPLEX Optimizer – Estados Unidos) para resolver este problema.
Nota: Sin embargo, si desea resolver el problema original (es decir, [math] min_x e ^ x, x> 0 [/ math]) la solución está en [math] 0+ \ epsilon [/ math] como lo menciona el usuario de Quora .