Realmente no hay diferencia técnica.
Pero la documentación y los usuarios están usando “modelos pre-entrenados” para referirse a modelos que se comparten abiertamente para que otros los usen. A diferencia de los que los usuarios se entrenan.
Por ejemplo en el contexto de fastText.
- ¿Cómo funcionan los vectores de párrafo frente a codificadores automáticos variacionales?
- Cómo interpretar una capa totalmente conectada como una capa convolucional para hacer predicciones densas de píxeles
- ¿Cuál es el significado de los recientes anuncios de aprendizaje automático de código abierto?
- ¿Qué redes neuronales se han diseñado para leer los labios?
- ¿El filtrado colaborativo se considera aprendizaje automático?
Por lo general, los llamados modelos pre-entrenados se entrenaron en un conjunto de datos estándar relativamente grande.
Tiene sentido compartir tales modelos porque
- son generales y, por lo tanto, útiles para un público amplio
- el tiempo de entrenamiento no es trivial en la máquina del usuario promedio
- la mayor parte del trabajo es en realidad la extracción, el formateo y el preprocesamiento
- El uso del mismo conjunto de datos hace que los resultados sean comparables y repetibles.
Si tiene un dominio o problema muy específico, máquinas, habilidades y está optimizando resultados prácticos que no son comparables, entonces entrenar sus propios modelos tiene sentido.
O si está desarrollando su propio enfoque de capacitación.