Pocos enfoques para implementar modelos de aprendizaje automático en la producción después del proceso de capacitación son los siguientes,
- Contenedores Docker para alojar el algoritmo como API de matraz / nodo
- El código de ejemplo para la API del matraz es el siguiente,
shabazbpatel / xgboost-model-api - Uso del enjambre Docker para escalar los contenedores según los requisitos de rendimiento.
- Cargue el modelo en su sistema de producción, como una función Lambda alojada en AWS.
- El modelo se puede cargar en su aplicación web y volver a crear una instancia y puede ejecutar el método de predicción en él. Puede tener tantas instancias de modelos y escalar a tantos trabajadores / máquinas según los requisitos de rendimiento.
- También puede crear Node.JS API junto con el método de inferencia como un método de apio dentro de un contenedor y escalar usando Amazon ECS.
Espero que ayude 🙂
- ¿Por qué los pesos hacia adelante y hacia atrás son iguales en la máquina de Boltzmann restringida?
- ¿Pueden los algoritmos de aprendizaje profundo predecir los resultados de los partidos deportivos?
- ¿Cómo puedo usar una red neuronal de convolución (para reconocimiento facial) después del entrenamiento? Quiero darle una cara como entrada y ver la salida predicha.
- ¿Hay alguna debilidad en el uso de la agrupación máxima y la agrupación promedio?
- En PWR, ¿por qué las barras de control están dispuestas en grupos?