Los investigadores suelen utilizar la perplejidad o la probabilidad logarítmica para evaluar sus modelos temáticos, los cuales ofrecen una evaluación relativa de la calidad. hay un documento que analiza otras técnicas de evaluación para modelos de tema [0] que probablemente valga la pena ver.
su punto de vista de que no hay un corpus conocido de etiquetas de temas es interesante. las etiquetas no son significativas por sí mismas, pero las etiquetas * y * un modelo de tema asociado con el que los investigadores podrían probar sería un recurso interesante y útil para la comunidad, en mi humilde opinión.
Dicho esto, no existe tal cosa (hasta ahora) como un modelo o etiqueta de tema absoluto. los temas son realmente solo significativos entre sí. la etiqueta de tema “correcta” para su documento (tweets) es una función del nivel al que está haciendo preguntas y qué preguntas está tratando de responder. considere, por ejemplo, la etiqueta “cocinar” versus “bienes raíces” o, dentro de cada uno de ellos, “sopas” y “guisos” versus “condominios” y “casas de pueblo”. claramente, depende de lo que quieras saber.
- ¿Cuáles son algunas de las ventajas del aprendizaje por diferencia temporal y cómo se puede mejorar?
- En la curva ROC, cualquier punto es resultado del modelo en un parámetro particular. No estoy claro por qué el adivinador aleatorio está en x = y y no siempre (0.5, 0.5). ¿También cómo interpretar el área bajo la curva?
- ¿Cuál es un ejemplo básico de aprendizaje automático?
- ¿Hay alguna manera fácil de configurar AWS para el aprendizaje profundo con Tensorflow y Keras?
- ¿Cuál es el propósito de visualizar las capas de activación en una arquitectura de red neuronal convolucional?
Por eso, por lo general, desea que dos o más temas contrasten entre sí. así que supongo que la pregunta es, ¿cuál es su resultado deseado, cómo podrían enfrentar los modelos de temas entre sí para lograrlo?
[0] http://www.cs.umass.edu/~wallach…