No veo una conexión obvia. De hecho, los patrones en la pregunta muestran algún tipo de similitud. Sin embargo, el proceso parece utilizar matrices aleatorias (proyecciones aleatorias) que parecen ser cuadradas. Entonces, en realidad, la entrada se proyecta en un espacio de dimensión similar que realmente no es lo que apunta la detección comprimida (generalmente hay proyecciones aleatorias para obtener una versión reducida de un vector espacial inicial de alta dimensión).
Ahora, no puedo decir categóricamente si es realmente algo que podría o no aparecer en la literatura de CS en algún momento.
Imagine, por ejemplo, que alguien demuestra o muestra empíricamente que la mayoría de los vectores dispersos o compresibles que pasan por este sistema se enseñan exactamente (más allá del vector disperso utilizado en el entrenamiento), entonces tendríamos algo que posiblemente podría estar relacionado con la detección de compresión.
- ¿Cuál es una mejor manera de comenzar a aprender Ciencia de Datos, a través de cursos en línea o en un Instituto de capacitación?
- ¿Qué soluciones se están construyendo utilizando la tecnología IBM Watson?
- Andrew Ng: ¿Qué opinas sobre la memoria?
- ¿Es útil entrenar a AlphaGo jugando contra sí mismo?
- ¿Cómo se asegura que el aprendizaje automático no aprenda la correlación cuando no hay causalidad, especialmente para la predicción?
Para los solucionadores exóticos, eche un vistazo a la reciente preimpresión titulada “Aproximación escasa analógica con aplicaciones para la detección comprimida” por Adam S. Charles, Pierre Garrigues y Christopher J. Rozell (http://arxiv.org/PS_cache/arxiv/…)
Eventualmente, no me sorprendería demasiado si alguien hiciera la conexión entre los solucionadores de Propagación de creencias (como el Algoritmo de transmisión de mensajes) que funcionan muy bien en la reconstrucción de CS y las redes neuronales (http://www.cs.duke.edu/ bioComp / r …)