La factorización matricial semi-no negativa es una técnica que aprende una representación de baja dimensión de un conjunto de datos que se presta a una interpretación de agrupamiento. Es posible que el mapeo entre esta nueva representación y nuestra matriz de datos original contenga información jerárquica bastante compleja con atributos ocultos implícitos de nivel inferior, que las metodologías clásicas de agrupación de un nivel no pueden interpretar. En este trabajo, proponemos un modelo novedoso, Deep Semi-NMF, que es capaz de aprender representaciones ocultas que permiten una interpretación del agrupamiento de acuerdo con diferentes atributos desconocidos de un conjunto de datos dado. También presentamos una versión semi-supervisada del algoritmo, denominada Deep WSF, que permite el uso de información previa (parcial) para cada uno de los atributos conocidos de un conjunto de datos, que permite que el modelo se use en conjuntos de datos con conocimiento de atributos mixtos. Finalmente, mostramos que nuestros modelos pueden aprender representaciones de baja dimensión que se adaptan mejor a la agrupación, pero también a la clasificación, superando a la factorización de matriz semi-no negativa, pero también a otras variantes de metodologías de vanguardia.
Mientras que Deep Learning es un término más amplio que incluye más modelos computacionales y el uso de la neurociencia de manera retrospectiva con PNL
- ¿Dónde puedo encontrar el conjunto de datos para un sistema de recomendación?
- ¿Cómo funcionan los vectores de párrafo frente a codificadores automáticos variacionales?
- ¿Cuáles son los últimos algoritmos de aprendizaje de los vecinos más cercanos? Me refiero a todo lo que se basa en datos, como métodos basados en instancias, kNN, algoritmos de aprendizaje vecinos y métricos, todo en un solo lugar.
- ¿Qué es la agrupación promedio global?
- ¿Es el atributo central del reconocimiento de patrones genios?