La factorización matricial es un método en el que agrega ruido y dimensiones a un conjunto de datos con la esperanza de extrapolar los puntos de datos que faltan en el conjunto de datos. Además, este proceso puede ayudarlo a descubrir características latentes dentro de los datos; el conjunto de datos original podría ser bidimensional, por ejemplo, películas clasificadas por los usuarios, para las cuales se agregan 0 a N dimensiones a las que cada usuario y película están más o menos unidos.
Deep Learning, por otro lado, utiliza redes neuronales tradicionales, pero con 0 a N capas.
Para responder a su pregunta, hay dos cosas separadas en mi mente.
- ¿Puede ocurrir un sobreajuste en un algoritmo de aprendizaje no supervisado?
- ¿Cómo puede motivar a un estudiante de CS para que aprenda Machine Learning?
- ¿Cómo debo comenzar a aprender 'Machine Learning usando Java'?
- ¿Qué significa 'Bagging reduce la varianza mientras se conserva el sesgo'?
- ¿Qué es el generador Deep Dream?
El aprendizaje computacionalmente profundo y la factorización matricial son un poco similares; le permiten agregar profundidad a los datos, lo cual es muy importante ya que nos ayuda a descubrir características y clústeres latentes.
La otra cosa que me viene a la mente (debido a que los sistemas de recomendación están un poco exagerados en este momento) es que uno podría usar algún tipo de combinación de Factorización matricial y Aprendizaje profundo para crear mejores recomendaciones.
La factorización matricial funciona bien para matrices dispersas, pero los datos y eventos de la vida real generados por personas no solo son dispersos, sino también libres de escala. Esta es probablemente la razón por la cual Google ha creado Tensor Flow y ha abandonado el paradigma MapReduce (ya que no se escala, cuando necesita un análisis de profundidad; dimensiones de 0 a N para descubrir características).
Si te gusta la física, debes leer sobre las leyes de conservación de energía, la entropía de Alfred Renyi y el entrelazamiento cuántico de información (teletransportación cuántica). Hacen un todo interesante.
Podría pensar que podría querer utilizar algoritmos de Factorización específicos para permitir que dos capas se comuniquen dentro de la Red de aprendizaje profundo; puede diseñar una red profunda de tal manera que las características populares encontradas por la factorización de matriz, se trasladen más a la memoria a largo plazo de las redes y las características menos populares permanezcan en la memoria a corto plazo.
Para ser honesto, no tengo suficiente conocimiento sobre las estructuras prácticas de las redes de aprendizaje profundo, pero creo que hay muchos tipos diferentes de redes profundas y su topología no siempre es similar; sin embargo, al combinar el aprendizaje profundo y la factorización matricial, preferiría algún tipo de máquina de Boltzman restringida profunda, que tiene una estructura de red sin escala.
Podría realizar algunas pruebas con esta pila para mi trabajo dentro de los próximos seis meses (comenzando la semana después de esta). Te mantendré informado si lo hago (siéntete libre de agregar comentarios más adelante si no he actualizado esta publicación).