¿Qué se debe considerar al decidir entre usar un algoritmo de filtrado colaborativo basado en el usuario y en el elemento?

Mi impresión es que la decisión está impulsada por factores computacionales.

Por ejemplo, el conjunto de datos de desafío de Netflix contó con 480,000 usuarios y 18,000 artículos. Muchas otras compañías, como Amazon, tienen un desequilibrio similar en cuanto a la cantidad de usuarios en su sitio en comparación con la cantidad de artículos en venta.

Además, vale la pena señalar que los datos son menos escasos para los elementos que para los usuarios. En el conjunto de datos de Netflix, cada película fue calificada en promedio por más de 5K usuarios, mientras que cada usuario promedio solo había visto 200 películas.

Finalmente, los gustos de los usuarios cambian con el tiempo. Sé que una canción o género que me gustaría en Spotify en este momento podría envejecer al menos temporalmente y pasaré a otra cosa. Las similitudes entre elementos permanecen más estáticas con el tiempo

More Interesting

Cómo realizar análisis de opinión sobre noticias del mercado de valores

¿Qué implementaciones de la capa convolucional utiliza la biblioteca CuDNN para optimizar el rendimiento de la velocidad? Por ejemplo, ¿cambia entre implementaciones dependiendo del tamaño del filtro?

¿Qué tan buenas son mis posibilidades de conseguir un trabajo de científico de datos con un doctorado en el campo de la visión por computadora?

¿Qué es un campo aleatorio?

¿Cuáles son los algoritmos estándar para la inferencia en redes bayesianas?

Para evaluar qué tan bueno es un hiperparámetro de red (por ejemplo, la tasa de deserción), ¿debo esperar a la convergencia?

¿Hay nueva información sobre el tema X o la gente sigue copiando y pegando?

¿Cómo debe planificar un estudiante de CS su primer verano?

¿Cuáles son los algoritmos para el resumen automático? ¿Alguien puede explicar los pasos en el resumen automático?

¿El bosque aleatorio funciona con variables categóricas?

¿Cómo se conecta la regresión lineal a los filtros de Kalman?

¿Por qué se utilizan imágenes en escala de grises para el análisis de componentes principales?

En la optimización matemática, ¿por qué alguien usaría el descenso de gradiente para una función convexa? ¿Por qué no encontrarían simplemente la derivada de esta función y buscarían el mínimo de la manera tradicional?

¿Qué funciona mejor, un ANN con miles de unidades por capa pero solo docenas de capas o uno con docenas de unidades por capa, pero cientos de capas?

¿Cómo representa doc2vec el vector de características de un documento? ¿Alguien puede explicar matemáticamente cómo se realiza el proceso?