Supongo que soy la persona adecuada para responder a esta pregunta, ya que he creado dos modelos de desgaste para dos compañías diferentes de EE. UU.
La cantidad de tiempo para construir el modelo dependerá de lo siguiente:
1) Tipo de industria
2) Volumen de datos
3) Cuán limpios son los datos
4) Cómo se estructuran / proporcionan los datos
Entonces, cuando construí el modelo de deserción para uno de los bancos de EE. UU., Tardé alrededor de 20 semanas, ya que los datos eran demasiado grandes, requirieron mucha limpieza y no se estructuraron correctamente, mientras que me llevó alrededor de 12 semanas construirlo para un cliente minorista donde los datos tenían menos volumen y estaban mejor estructurados.
La tarea más importante en cualquier tipo de modelado es crear un conjunto de datos analíticos precisos que realmente requiera la mayor parte del tiempo, una vez que tenga eso listo, la construcción del modelo se puede hacer en una semana.
- ¿Cómo puede llevar a cabo experimentos y compararlos con otros algoritmos en la investigación de la visión por computadora (detección de objetos, reconocimiento, seguimiento, etc.)?
- ¿Los científicos de datos y el ingeniero de aprendizaje automático necesitan saber implementar algoritmos ML / DL desde cero o simplemente usar las bibliotecas existentes en producción?
- ¿Cuál es la mejor manera de analizar y predecir en base a un conjunto de datos que tiene texto y números?
- ¿Cuál es la diferencia entre el entrenamiento por lotes, en línea y mini-lote en redes neuronales? ¿Cuál debo usar para un conjunto de datos de pequeño a mediano tamaño con fines de predicción?
- ¿Cuáles son algunos documentos de investigación de inicio sobre búsqueda, aprendizaje automático y recuperación de información?