LLE se utilizó para aprender la representación semántica de las palabras [1].
Editar: – Solo pensé en dejarme agregar más contenido en general para la reducción de dimensionalidad no lineal.
Honkela [2] propuso un mapa de autoorganización (SOM) para encontrar similitudes estadísticas entre palabras y relaciones [3]. Por ejemplo, en [3] analizaron los cuentos de hadas de Grimm (sin categorización sintáctica y semántica previa) de las palabras.
HAL (Una biblioteca de software escalable para espacios semánticos – Google Project Hosting)
es otra forma de reducción de dimensionalidad para datos de texto.
ICA (Análisis de componentes independientes) [4] se ha utilizado para encontrar similitudes semánticas entre palabras.
Los modelos basados en indexación aleatoria motivados por el lema de Johnson-Lindenstrauss se han utilizado para inducir una representación dimensional baja de las palabras [5].
- ¿Qué sucede si hacemos que cada unidad de filtro o núcleo en una capa CNN dentro de una red neuronal profunda tenga diferentes tamaños de ventana pero el mismo número de parámetros de peso (lo que resulta en granulado grueso)? ¿Podría conducir a un efecto contextual?
- Cómo detectar si a una cadena le faltan espacios entre palabras
- ¿Dónde usamos las matemáticas discretas y la probabilidad en informática?
- ¿Cómo es trabajar en el equipo de Machine learning / Data Mining?
- ¿Cómo se derivan las funciones de costo para las redes neuronales?
Recientemente ha habido un trabajo emocionante por parte de la gente de Deep Learning [6], [7] que ha mostrado resultados sorprendentes en tareas como WSD, predicción de relaciones, etc.
Modelos basados en el aprendizaje matricial especialmente en [8], [9].
[1] Página en stanford.edu
[2] Página en ics.aalto.fi
[3] Página en researchgate.net
[4] COMPARACIÓN DEL ANÁLISIS DE COMPONENTES INDEPENDIENTES Y LA DESCOMPOSICIÓN DE VALOR SINGULAR EN EL ANÁLISIS DE CONTEXTO DE PALABRAS
[5] Reducción de la dimensionalidad por mapeo aleatorio: cálculo rápido de similitud para la agrupación
[6] Página en uchicago.edu
[7] Página en iro.umontreal.ca
[8] Página en aclweb.org
[9] Página en jmlr.org
Tengo algo de trabajo en modelos basados en codificación dispersa y definitivamente puedo compartirlo si uno lo requiere.