Primero supongamos que es posible modelar el universo con una función.
Cada función puede ser modelada por una red de 2 capas, pero la cantidad de neuronas necesarias se escala exponencialmente con la complejidad del problema. Modelar el universo, si es posible, sería la función más compleja imaginable y, por lo tanto, probablemente se quedará sin materia para su memoria.
Sobre el tema de la posibilidad real de modelar el universo, se me ocurrió esta paradoja:
- ¿Qué significa end to end en los métodos de aprendizaje profundo?
- ¿Cuáles son algunas ideas importantes / brillantes en el aprendizaje automático?
- ¿Por qué cada filtro aprende diferentes características en una red neuronal convolucional?
- Para las selecciones de características, ¿cuál deberíamos preferir, PCA (basado en la matriz de correlación) para reducir la dimensión o Xgboost (basado en el árbol)?
- ¿Hay algunos trabajos relacionados con el aprendizaje por refuerzo?
Digamos que puede modelar el universo y necesita un mínimo de X cantidad de materia para hacerlo. Ahora el modelo del universo también debería ser capaz de modelar el universo como puede hacerlo el universo real. Modelar el universo dentro del modelo del universo nuevamente necesitaría X cantidad de materia. Esto continúa hasta el infinito y requiere una cantidad infinita de materia. Según tengo entendido, el consenso en física es que hay una cantidad finita de materia, por lo tanto, no podría modelar el universo dentro del universo.