La menta verde es una buena opción y es relativamente fácil de configurar y ejecutar. Tenga en cuenta que la versión HIPS tiene una licencia bastante restrictiva y utiliza Mongo, que puede ser un poco desagradable. Dicho esto, hay una versión anterior con una licencia menos restrictiva que podría satisfacer sus necesidades, pero no es tan rica en funciones.
Comencé a investigar esto después de leer una publicación de blog del equipo de Netflix que describe su proceso de optimización de hiperparámetros.
Zygmunt Zając elaboró una guía rápida para poner esto en funcionamiento, que también me pareció útil.
- ¿Cuáles son los mejores métodos para recopilar datos de entrenamiento para el algoritmo Naive Bayes?
- ¿Cuál es la segunda generación de redes neuronales?
- ¿Cuán eficientes pueden ser los datos de biomarcadores para predecir el deterioro clínico?
- ¿Qué significa 'modelado de conjunto'?
- Yoshua Bengio: ¿Será el aprendizaje profundo un paso hacia la IA consciente?
Otras opciones que no he examinado son:
- BayesOpt: una biblioteca de optimización bayesiana
- Hyperopt por jabber; sin embargo, no parece que reaccionará a los resultados a medida que se devuelven [1]
- SMAC: configuración de algoritmo basado en modelo secuencial
EDITAR: formatos de enlace fijos
Notas al pie
[1] Optimización de hiperparámetros con hiperopt.