Lo que está buscando a veces se denomina “inferencia variacional para el aprendizaje escalable”, aunque el nombre no es exhaustivo. Mira los dos enlaces a continuación para tener una idea:
https://www.siam.org/meetings/sd…
http://www.carolineuhler.com/sli…
- ¿Cuál es el mejor algoritmo de compresión de texto?
- Teletransportación: ¿Cuánta memoria de computadora necesitaríamos para registrar y reproducir la ubicación exacta de todos los átomos en nuestro cuerpo?
- ¿Qué tipo de aprendizaje automático es este?
- ¿Se beneficiaría el plan de estudios general de informática de la universidad al dividirse en pistas CS aplicadas y puras?
- Aprendiendo a programar, académicamente un ingeniero. ¿Llegué tarde?
En general, el punto principal, descrito de manera muy concisa en el primer enlace, es que los datos del mundo real, aunque de alta dimensión, tienden a agruparse en una estructura de baja dimensión (por ejemplo, tiene datos en 3 dimensiones que contienen muchos puntos, pero la mayoría de estos agruparse alrededor de ciertos “discos”, es decir, estructuras bidimensionales, etc.). La observación que vincula esto con los hamiltonianos es que ciertos sistemas físicos, modelados por los flujos hamiltonianos, también generan soluciones donde observamos este tipo de reducción de dimensionalidad. La relación con la terminación geométrica se debe al hecho de que, si uno quisiera construir una métrica de Riemann para describir la geometría de los puntos de datos (por ejemplo, si los datos forman una esfera N-dimensional, entonces la distancia entre dos puntos en esa esfera es ya no es la distancia euclidiana habitual sino la métrica de la esfera N-dimensional), uno necesita completar geométricamente (que es algo similar a la terminación de matriz, vea el segundo enlace).