¿Una simulación perfecta de algo requeriría tanta información como la cosa que se simula?

La respuesta será “sí” o “no” dependiendo de lo que quiera decir con “tanta información”. Si por “información” quiere decir que tomamos la descripción de la fuerza bruta del estado de la cosa que se está simulando, entonces se está preguntando si necesitamos simular tantos grados de libertad como esa descripción de la fuerza bruta. En ese caso, la respuesta es no, porque en alguna representación, el número de grados de libertad que “importan en absoluto” puede ser más bajo en general. Alternativamente, si quiere decir con “información”, alguna medida inherente de la cantidad de grados de libertad realmente relevantes, entonces la respuesta es “sí”. En resumen, siempre hay un límite fundamental, que no siempre es obvio (la descripción de la fuerza bruta es la representación obvia), pero este límite fundamental requiere una comprensión del modelo del comportamiento que estamos tratando de simular. La redundancia en ese modelo es lo que nos permite simular con menos recursos de lo que implicaría la fuerza bruta. Una medida fundamental de la cantidad de información o complejidad ya tiene en cuenta esa redundancia. Por lo tanto, no podemos superar el límite fundamental sin perder información relevante.

Definitivamente creo que la respuesta de Tim Heywood está en el camino correcto. De hecho, estoy muy interesado en este problema general: las señales e imágenes (el tipo de información que habitualmente queremos “comprimir” usando los algoritmos de compresión de datos estándar), tienen una “complejidad inherente” o similarmente “contenido de información inherente”, que establece un límite inferior fundamental en la cantidad de recursos necesarios para representar o transmitir con precisión el original sin necesidad de una representación de fuerza bruta del original. ¿Cuál es la diferencia entre la representación más parsimoniosa y la representación de fuerza bruta? Esencialmente, es que la representación de fuerza bruta especifica todos los valores para todos los grados de libertad en el objeto que se está representando. Esto significa que si tenemos una imagen con un millón de píxeles, entonces la fuerza bruta estaría enumerando el valor RGB de cada píxel uno por uno.

De manera similar, afirmo (y puedo mostrar con bastante facilidad para los sistemas que tienen componentes estocásticos / probabilísticos) que cuando desea simular un sistema, este sistema tiene una complejidad inherente, que establece un límite inferior en la complejidad de la simulación que necesita ejecutar para predecir razonablemente con precisión las salidas dadas una entrada al sistema: un ejemplo es calcular el estado final de un sistema dado su estado inicial. Lo que quiere decir con “razonablemente preciso” es bastante importante aquí: el diablo está en los detalles, pero, sin embargo, una vez que decide qué aspectos del comportamiento del sistema son importantes para usted y lo que considera que son lo suficientemente precisos , entonces tiene algo que trabajar con. Creo que evaluar estos límites inferiores se vuelve más difícil y complicado cuando comienzas a lidiar con los aspectos deterministas de un sistema, pero cuando abordas los aspectos aleatorios / estocásticos, evaluar la complejidad de simular estos aspectos es una extensión relativamente sencilla de los argumentos utilizados evaluar el contenido de la información de los datos como se hace en los estudios de compresión de datos.

Déjame darte el ejemplo trivial por excelencia para la compresión de datos. Mira esta imagen:


No sé cuántos píxeles tiene, pero supongamos que [matemática] 1000 \ veces 1000 [/ matemática]. En lugar de almacenar los valores RGB (algo así como [matemática] 3 \ veces 8 [/ matemática] bits por píxel, así que multiplique por [matemática] 1,000,000 [/ matemática] píxeles), simplemente puede especificar las dimensiones de la cuadrícula y solo una Valor RGB (logrando una gran compresión). Esto se debe a que el contenido de información inherente de la imagen original (o equivalente, la complejidad inherente) es muy bajo. Hay imágenes con contenido de información muy alto, y hay imágenes en cualquier lugar entre la que se muestra y aquellas con contenido de información máximo (¿puede adivinar cuál es el contenido de información máximo para una imagen que es [matemática] 1000 \ veces 1000 [/ matemática ] píxeles?)

¿Cuál es el ejemplo trivial análogo para simular un sistema? Imagine un sistema de partículas que comienzan en un estado completamente fijo y no interactúan entre sí o con el mundo exterior. Luego, escribir la simulación que conduce a su estado final es tan fácil como el esquema de compresión que acabamos de describir para la imagen azul simple … Por supuesto, puede imaginar sistemas cuyo comportamiento es máximo complejo (que requiere una especificación consistente de todos los grados de libertad, ya que no hay representación en menos grados de libertad), y puede imaginar sistemas que están en algún lugar entre el ejemplo trivial y el ejemplo de máxima complejidad.

¿Cuál es un ejemplo un poco menos trivial?

Supongamos que tenemos una imagen que tiene un gradiente casi lineal, pero en realidad no es exactamente lineal. Bueno, puede cuantificar la cantidad de información que pierde al representarla como un gradiente lineal … ¿Qué sucede si solo hay pequeñas fluctuaciones estocásticas (aleatorias) ligeramente por encima y por debajo del comportamiento lineal? Imagine el conjunto de imágenes posibles que resultan de varias realizaciones de esta descripción estocástica (si algo es aleatorio, una vez que tiene un resultado, ese resultado es a lo que nos referimos como la realización del proceso aleatorio). Luego, podemos configurar un esquema de codificación teniendo en cuenta este modelo casi lineal, y podemos usar este esquema de codificación para representar (o casi exactamente) exactamente y replicar una imagen arbitraria dentro de la clase de imágenes que se ajustan al modelo . Entonces, habremos tenido en cuenta el gradiente lineal y luego solo tendremos que codificar / representar las pequeñas fluctuaciones estocásticas; ahora estos no requerirán tantos recursos como serían necesarios si simplemente asumiéramos que cualquier imagen aleatoria fuera posible … Entonces, solo necesitamos margen de maniobra en nuestra codificación para pequeñas variaciones estocásticas anteriores y soplar una imagen azul exacta con un degradado lineal , que es mucho menos margen de maniobra de lo que sería necesario si asumiéramos que cualquier tipo de imagen es posible. Por lo tanto, tener un modelo que dice que nuestra imagen está cerca de una imagen azul con un gradiente lineal más o menos algunas fluctuaciones con estadísticas conocidas permite una representación menos compleja que no tener ningún modelo y asumir “cualquier imagen es un juego justo”.

Puede imaginarse simulando un sistema que evoluciona en el tiempo con un comportamiento casi lineal y pequeñas fluctuaciones aleatorias alejadas de dicho comportamiento lineal. Ese sistema tiene una complejidad muy diferente de un sistema altamente no lineal con ruido aleatorio adicional (fluctuaciones) que es altamente errático (por lo tanto, el ruido no es un proceso aleatorio simple como el ruido aditivo gaussiano). ¿Y si además de esto, los parámetros del comportamiento no lineal no se conocen exactamente pero se distribuyen dentro de un rango de posibilidades? … Tanto el sistema lineal como la contraparte no lineal podrían tener exactamente el mismo número de grados de libertad (!), Pero la cantidad de recursos necesarios para simular cada uno de ellos, respectivamente, puede diferir dramáticamente. Es posible que necesitemos muchos menos grados de libertad para simular un sistema del que necesitaríamos para simular el otro, aunque ambos sistemas son en última instancia del mismo tamaño, en el sentido de que su espacio de estado es del mismo tamaño.

Sé que la respuesta fue cualitativa, pero espero que al menos estimule cierta curiosidad sobre este tipo de problema. Además, preguntaste sobre una simulación perfecta . Creo que el razonamiento que he descrito se aplica tanto a las simulaciones perfectas como a las simulaciones que cumplen con un criterio específico de precisión no trivial sin requerir una precisión perfecta.

La palabra clave para definir aquí es “perfecta”. ¿Qué quieres decir con la palabra perfecto aquí? Déjame darte tres ejemplos y luego puedes decidir:

1- Si escribo un programa para simular la ecuación 2 + 2 = 4, hice una simulación perfecta. Aquí su respuesta es sí, la información es tanto como el sistema real.

2- Si quiero modelar la caída de una piedra de un edificio de 10 pisos, probablemente un modelo simple que me diga h = h_0 – gt ^ 2 funciona “perfecto”. Aunque no calculé el impacto de la resistencia a la intemperie, el modelo me da una respuesta perfecta. Aquí, la simulación no necesita tener tanta información como la real.

3- Si quiero modelar una distribución normal (como la altura promedio de cada aula de 12º grado en los Estados Unidos), puedo simularla fácilmente con un modelo probabilístico. Sin embargo, los resultados que obtendré en cada ejecución de mi modelo serán diferentes de la realidad. Por lo tanto, tengo un modelo probabilístico perfecto mientras no tengo toda la información en la realidad.

Espero que esto te de alguna idea.

Con imágenes digitales tomadas en formato RAW, es posible comprimir el archivo sin pérdida de información (por ejemplo, TIFF). Entonces, si es posible una compresión sin pérdidas, presumiblemente también es posible crear una simulación que tenga el mismo detalle pero codificada en menos datos.

No estoy seguro si esto cuenta, pero estaría interesado en las ideas de los demás.

Sí.

More Interesting

¿Cuál es el mejor sistema operativo de computadora de todos los tiempos?

¿Qué cambios (si los hay) planea hacer Jelani Nelson en la forma en que se enseña CS124 en Harvard?

¿Cómo funciona Microsoft Surface?

¿Cuál era el tamaño de la memoria de la computadora básica?

¿Es cierto que un título en informática es útil solo si puedo ingresar a una universidad superior como MIT o Stanford, y es mejor ser un desarrollador autodidacta en lugar de estudiar en una universidad mala?

¿Cómo se separan las diferentes bandas de música (como agudos y graves) por nuestras computadoras y ecualizadores?

¿Qué son las computadoras cuánticas y cómo funcionan?

¿Cuáles son algunos ejemplos de abstracción en biología?

¿Por qué nadie ha implementado un sistema operativo peer-to-peer basado en el consumidor?

Deseo recibir notificaciones push en mi computadora con Windows 7. ¿Qué software me puede ayudar a lograr esto?

¿En qué se diferencian las caras propias de las caras de Fisher?

¿Los sonidos de alta frecuencia consumen más espacio de memoria en la computadora? ¿Qué pasa con una mayor amplitud (volumen)?

¿Debo solicitar una pasantía de CS incluso si no cumplo con algunos o todos los requisitos?

¿Es posible adivinar el golpe del teclado al escuchar?

¿Cómo puedo procesar grandes conjuntos de datos con mi computadora portátil? En una competencia de minería de datos, hay un CSV de 1GB de información del cliente para procesar. ¿Hay alguna manera de procesarlo sin cargarlo todo en la RAM, o podría procesar solo una parte a la vez?