¿Qué pasa si el aprendizaje automático se aplica a la física?

Las técnicas de aprendizaje automático se han aplicado al modelado de física durante algún tiempo. Por lo general, el proceso implica consideraciones como:

(1) Elección de parámetros: un conjunto de grados de libertad y condiciones de contorno se identifican como cantidades de entrada adecuadas. Sus valores deberían poder describir todos los escenarios típicos donde se aplicará el modelo. Un ejemplo podría ser un conjunto de coordenadas. Cuando el problema involucra cantidades altamente correlacionadas, esta elección es generalmente difícil.

(2) Conjunto de aprendizaje: se generan diferentes combinaciones de los valores de entrada hasta que, para la mayoría de los escenarios esperados, se garantice que exista una combinación similar con una alta probabilidad. Por ejemplo, un conjunto de coordenadas atómicas podría generarse aleatoriamente con la restricción de que los valores deben permanecer dentro de cierto rango entre sí (la densidad local debe permanecer en una “zona de Ricitos de Oro”). No siempre es factible guardar todas las combinaciones en el disco , a menudo es más práctico generar los datos sobre la marcha.

(3) Valores de referencia: los valores de salida deseados correspondientes a la entrada se extraen de fuentes confiables, como experimentos, química cuántica o simulaciones clásicas masivamente paralelas. Para las coordenadas atómicas, por ejemplo, puede desear extraer los componentes de fuerza para cada una de las configuraciones y entornos de entrada.

Después de estos preparativos, ¡está listo para entrenar un algoritmo de aprendizaje automático para producir la misma salida! En problemas posteriores, puede aplicar el algoritmo entrenado en lugar de la teoría física y lograr un rendimiento computacional mejor en varios órdenes de magnitud.

La precisión del enfoque de aprendizaje automático es generalmente muy buena siempre que no se requiera extrapolación; después de todo, también implican órdenes de magnitud más parámetros que los modelos de física tradicionales.

Que yo sepa, un mejor rendimiento es el principal motivador para el uso de estas técnicas, personalmente no conozco ninguna propuesta popular para explicar la física en un nivel más fundamental con, por ejemplo, las redes neuronales.

En primer lugar, permítanme comenzar con una crítica de su pregunta: no estoy seguro de qué quiere decir con “ML aplicado a la física”, ML es un marco para generar una máquina que le da respuestas a cierto tipo de problemas. Puede aplicar un marco sobre un tema determinado, pero no estoy seguro de si un marco puede aplicarse por sí mismo …

Su declaración en el comentario al menos no es falsa, si el entrenamiento en datos “newtonianos” daría respuestas correctas para “Problemas de QM :, entonces hay una” conexión “que la red ha” aprendido “.

Sin embargo, eso no sería sorprendente en absoluto. QM está _construido_ de una manera que se mantiene el límite clásico (es decir, termina con “Newton” en el límite clásico).

Por otro lado, lo que hacen ML en general y NN en particular es una especie de interpolación “sin parámetros”. Por lo tanto, los NN podrán ser buenos para predecir cosas que están “en el medio” del conjunto de datos de prueba. Y, por definición, tienen un comportamiento indefinido fuera de esta área.