¿Cuál sería el campo de estudio entre la física teórica y ML / AI?

Hace 20-30 años, era la norma.

Las redes neuronales fueron un tema candente de investigación en materia condensada teórica y física y química estadística.

https://nms.kcl.ac.uk/reimer.kue…

Había cientos de artículos sobre el tema; Aquí hay ~ 200 documentos de donde hice mi post doc:

Publicaciones: redes neuronales

y casi cualquiera que estudie mecánica estadística tenía que saber al menos qué era una red Hopfield

Redes Hopfield en Go

Gran parte del interés por esto murió a finales de los 90. Aún así, hoy hay algo de trabajo en el cruce entre stat mech y teoría de la información, como el Grupo Sphinx: Florent Krzakala

que incluso creó su propio marco de aprendizaje profundo en Julia llamado Mocha.jl

Mocha.jl: Aprendizaje profundo para Julia

También hay conexiones profundas entre la física teórica y la teoría de la información general, y muchos grupos en todo el mundo continúan persiguiendo esto.

Esto es en lo que estoy trabajando actualmente para mi tesis doctoral, así que intentaré dar un poco más de información. Una de las conexiones más fundamentales entre la física y el aprendizaje automático es la existencia de un mapeo exacto entre el grupo de renormalización variacional y el aprendizaje profundo ( https://arxiv.org/pdf/1410.3831.pdf ). Esto tiene implicaciones significativas para ambos campos, particularmente porque la mecánica subyacente de las redes profundas sigue siendo en gran medida desconocida. Desde la perspectiva de los teóricos, parece probable que la aplicación de métodos grupales de renormalización nos permita comprender mejor cómo funcionan estos modelos.

Otra conexión más aplicada (y de rápido crecimiento) entre los dos campos es la aplicación de métodos de aprendizaje supervisados ​​y no supervisados ​​a los modelos de espín cuántico. Uno de los resultados más influyentes en esta área fue publicado recientemente por Carrasquilla y Melko en Nature, ( http://www.nature.com/nphys/jour …) en el que muestran que una red neuronal convolucional es capaz de aprender información sobre La temperatura crítica de la transición de fase en el modelo Ising, utilizando configuraciones de giro sin procesar como datos de entrada. Muchos otros grupos ahora están investigando aplicaciones de algoritmos de aprendizaje automático para sistemas de materia condensada, y a partir de ahora, ¡los resultados parecen prometedores!

Lo inverso sucede todo el tiempo. Muchas técnicas (por ejemplo: energía libre) en inferencia aproximada se toman directamente de la física.

Los procesos gaussianos se utilizan para la astronomía, según escucho.

Introducción de un astrónomo a los procesos gaussianos (v2)

Creo que cuando AGI esté disponible, algunas de sus primeras aplicaciones serán en física teórica.

Ciertamente, eso será cierto para la computación cuántica, cuyas aplicaciones más dramáticas serán en simulaciones mecánicas intrínsecamente cuánticas.

Ya hay muchas personas haciendo plegamiento de proteínas, orbitales moleculares, relatividad general y QCD Lattice numéricamente, pero los físicos tienden a ser un poco arrogantes sobre la parte del pensamiento real. Creemos que podemos hacer un razonamiento abstracto mejor que cualquier máquina. Sin duda nos espera una sorpresa …