Como usted dice, la mayoría de los recomendadores piensan que las mejores recomendaciones se obtienen de los artículos que ha consumido 0 veces. En su configuración alternativa, tendría que definir cuál es la respuesta correcta: ¿artículos que ha consumido con poca frecuencia? ¿no recientemente? ¿frecuentemente? ¿recientemente? Y en algunos casos, ese es su algoritmo de “recomendación”: simplemente repita el artículo consumido con mayor frecuencia o lo que sea.
Muchos recomendadores, como los modelos de factor latente en la entrada implícita, suponen que lo que realmente ha consumido es una vista parcial ruidosa de lo que desea haber consumido . Has consumido muchos artículos 0 veces que realmente te gustaría consumir 1 o más veces; tal vez has consumido algunos artículos muchas veces que ya no son tan gratificantes (ya). Aunque estos modelos seleccionan de forma predeterminada recomendaciones exclusivamente de los artículos consumidos 0 veces hasta ahora, no hay razón para que tengan que hacer esto. Podrían elegir recomendaciones de todos los artículos. Los resultados tenderían a favorecer los artículos que de hecho se han consumido muchas veces en el pasado, pero no exclusivamente. Tal vez esa sea una buena respuesta, ya que es una generalización trivial de un recomendante normal.
- ¿Cuál es la diferencia entre Numpy y TensorFlow?
- ¿El reconocimiento facial basado en CNN todavía se clasificaría correctamente si la imagen facial presentada está al revés?
- ¿El libro de Neural Networks de James Freeman cubre todos los temas?
- Cómo publicar un proyecto capstone
- ¿Cuáles son sus 5 mejores técnicas empíricas para detectar BS?