No, la optimización matemática no se volverá obsoleta. Todo lo contrario por al menos dos razones en mi opinión. Primero, la optimización a menudo juega un papel fundamental en el aprendizaje automático, el aprendizaje profundo y los métodos de minería de datos (por ejemplo, identificar el margen máximo, minimizar una función de pérdida, etc.). En segundo lugar, la optimización se convertirá más en un seguimiento de la regresión y la clasificación a medida que los datos se unifiquen más dentro de los sistemas y la predicción se vuelva más precisa. Por ejemplo, podríamos predecir que el costo del combustible, el precio de los bienes vendidos en el mercado y el costo de trasladar esos bienes al mercado tendrán algún valor en algún momento en el futuro. Estos valores pueden convertirse en variables de decisión en la función objetivo de un problema de asignación de recursos destinado a minimizar el costo de todo el sistema mediante la asignación de vehículos, conductores, energía, etc. a la ubicación óptima en el momento óptimo y en la cantidad o cantidad óptima. Creo que cualquier situación generaría una mayor dependencia de la optimización matemática. Estoy interesado en escuchar algunos pensamientos alternativos o contraargumentos.
¿Serán obsoletas las técnicas de programación lineal y optimización matemática en el futuro?
Related Content
¿La teoría de la medida es relevante para el aprendizaje automático?
¿Cuáles son los temas candentes en el aprendizaje automático en 2016?
¿Qué hace que una neurona aprenda? Si no lo sabemos, ¿alguna vez será posible averiguarlo?
Entiendo lo que quieres decir, pero como está redactado, no creo que la pregunta tenga mucho sentido. Después de todo, el descenso de gradiente es una técnica de optimización matemática ampliamente utilizada para entrenar redes neuronales.
Pero creo que está sugiriendo que las preguntas de optimización más generales se responderán cada vez más con cosas como redes neuronales, etc. Estoy seguro de que se utilizarán cada vez más para atacar problemas no convexos. Sin embargo, creo que las técnicas tradicionales de optimización convexa nos acompañan para siempre. Son más rápidos que las redes neuronales y se entienden mucho mejor desde un punto de vista teórico. De acuerdo, primero debe estar bastante seguro de que su problema es convexo, localmente convexo o bastante convexo, pero si tiene este tipo de conocimiento de su espacio global, los optimizadores convexos pueden explotarlo directamente. Pueden descubrir una solución a un grado arbitrario de precisión, mientras que una red neuronal o algo así realmente no sabe qué tan cerca está del punto óptimo. Una excepción en la que las redes neuronales pueden tener una ventaja es en los problemas que involucran ciertos tipos de restricciones. Debido a problemas numéricos relacionados con la representación de números de coma flotante en el hardware de la computadora, he visto que muchos optimizadores disponibles se ahogan de vez en cuando. Sin embargo, una red neuronal puede continuar buscando el mismo espacio y, por lo tanto, podría considerarse algo más robusto en un sentido práctico.
Generalmente estoy de acuerdo con John Harris.
Sin embargo, mi opinión es que, en muchos sistemas complejos de mutivariación, los métodos de optimización clásicos no pueden proporcionar mejores soluciones en comparación con una combinación de algoritmos evolutivos y metamodelos generados por Machine Learning. Ambas estrategias son básicamente IA y no una optimización clásica.
More Interesting
¿La inteligencia artificial jugará un papel clave en la creación de buenos servicios al cliente?
¿Qué IA ficticia es la más peligrosa?
¿Cómo está cambiando la inteligencia artificial internet?
¿El aumento de los robots sexuales impulsados por IA conducirá a una subpoblación mundial masiva?
¿Cuáles son los problemas más interesantes en los que OpenAI está trabajando?
¿Debería una IA consciente de sí misma estar agradecida por haber sido creada?
¿Cuál es un posible escenario en el que Google podría convertirse en Skynet?