Para empezar, diría que, el razonamiento detrás del modelado de lenguaje n-gram es ampliamente utilizado en diferentes áreas. He visto su uso en la música donde los n-gramas de caracteres se usan para diversos propósitos.
El concepto de modelado generativo es muy utilizado en la traducción automática, que también tiene su uso en una variedad de modelos de aprendizaje automático.
Quizás, todo depende de qué tipo de información tenga. Las técnicas aplicadas para el aprendizaje automático son más o menos las mismas en todas partes (al menos el principio detrás de esto), lo único que cambia es cómo preprocesas tus datos. Por ejemplo, en el etiquetado de POS, la etiqueta que se le daría a la palabra actual, depende del historial anterior de las etiquetas dadas a las palabras que aparecen antes. Para este propósito, uno podría usar un Modelo de Markov Oculto, Redes Neuronales Recurrentes (con LSTM), etc. Pero el punto a tener en cuenta aquí es que necesitábamos un modelo que pudiera tener en cuenta la historia previa.
- ¿Cómo puedo demostrar que si no escalo las características antes de aplicar el descenso de gradiente, disminuirá la convergencia?
- ¿Qué distingue una capa de una red neuronal de otras capas?
- ¿Qué tipos de imágenes se usan generalmente para la clasificación del uso del suelo?
- ¿Qué pasaría si las máquinas escribieran algunas de las preguntas sobre Quora?
- ¿Cómo es usar las API de servicios cognitivos de Microsoft?
Ahora, en diferentes áreas donde necesita un modelo que necesita un historial previo, puede usar todo esto. Dichas aplicaciones solo inspiran lo que podría hacer en otros campos (aparte de PNL).
Cuando el tipo de datos es similar (en el nivel más básico), los modelos que se utilizarán son más o menos similares. Pero cómo los procesas previamente va a ser diferente.