Dado un volumen que consiste en un número de ubicaciones dentro de un espacio tridimensional definido, y a cada una de estas ubicaciones se le asigna algún número, ¿hay alguna métrica obvia que se pueda aplicar que mida la complejidad de la distribución de las mediciones?

Lo que has descrito es un campo escalar (creo que, al menos, eso es lo que parece que has descrito). Un campo escalar es una función de un solo valor sobre el espacio: [matemática] f (x, y, z) [/ matemática].

Hay diferentes formas de definir la “complejidad” de la distribución, por lo que tendrá que definir con mayor precisión lo que quiere decir. La entropía de la información y la complejidad de Kolmogorov son dos de esas definiciones. Ninguno de los dos puede calcularse exactamente, pero ambos se aproximan mediante algoritmos de compresión de datos estándar: cuanto menor es la complejidad, mayor es el grado de compresión alcanzado. Puede intentar serializar sus datos y luego aplicar un algoritmo de compresión de cadena estándar, o puede intentar mirar algoritmos de compresión de nube de puntos 3D , de los cuales hay muchos. Por ejemplo, la compresión de atributos de nube de puntos con transformación de gráfico sería apropiada para datos dispersos que tienden a estar en superficies o líneas, mientras que la compresión fuera de núcleo y la descompresión de grandes campos escalares n- dimensionales serían más apropiadas para datos densos.

No sé de una “medida obvia”.
Puedo decirte cómo abordaría este problema.

Supongo que el valor A = f (x, y, z) + ruido
La función f parametriza la forma en que A varía en el espacio y “Ruido” representa la suma de variaciones aleatorias, error de medición e influencia extraña, por ejemplo, g (w) donde w es una variable independiente desconocida o no medida.
Si la función f es un buen ajuste de A, entonces el ruido se minimizará.
La bondad de ajuste puede medirse por el menor valor del RMS de ruido.

En mi humilde opinión, lo que debe hacer es encontrar una función ‘simple’ adecuada f que represente la variación de A en el espacio mientras minimiza el ruido.

Si A fuera la temperatura y cada punto recibido escuche de varias fuentes de calor. Entonces podríamos ser capaces de describir la variación de temperatura en términos de temperatura y ubicación de varias fuentes de calor.
A medida que aumenta arbitrariamente el número de fuentes de calor, aumentará la complejidad de la función de ajuste y reducirá el ruido.
Si tomamos la conductividad del espacio (por ejemplo, dentro de un material) como un parámetro libre, entonces la complejidad aumenta con el número de fuentes de calor, y se podría obtener cero ruido con un millón de fuentes de calor y cero conductividad.
En el otro extremo, podríamos tomar f como una constante y toda variación en el espacio como ruido.
Concluyo que la complejidad es una medida de f pero esta medida dependerá de un modelado apropiado y una comprensión del ruido aceptable.

More Interesting

¿Cuánto de los algoritmos de Windows 8 y 10 se toman de versiones anteriores de Windows?

Si solo quiero escribir algoritmos y lógica, y no quiero molestarme con la interfaz de usuario y la codificación frontal, ¿qué tipo de posición de software me conviene más?

¿Puedo volverme competente en estructuras de datos y algoritmos sin leer el libro CLRS?

¿Cuál es la mejor fuente disponible para aprender estructuras de datos y algoritmos para un principiante?

¿Cuál sería el impacto económico de un algoritmo de compresión tan eficiente como el representado en Silicon Valley?

¿Desglosar el problema en piezas más pequeñas siempre ofrece una mejor solución?

¿Qué viene después de aprender la biblioteca de plantillas estándar, las estructuras de datos y los algoritmos en C ++?

¿Cuál es la diferencia entre la descomposición de raíz cuadrada y el algoritmo de MO?

¿Por qué usamos algoritmos?

Algunos dicen que después de haber trabajado como desarrollador durante 2 años más o menos, debería poder pasar a un nuevo trabajo sin preguntas de algoritmos, ¿verdad?

¿Por qué puede verse la secuencia de Fibonacci como un algoritmo dinámico y por qué tiene un mal tiempo de ejecución?

Dado un conjunto etiquetado de nodos, ¿podemos 'siempre' construir un árbol de búsqueda binario (BST) para ellos?

¿Cuál es la complejidad del tiempo para la escalera de palabras?

¿Es posible crear un algoritmo de búsqueda mejor que el de Google?

¿Cuáles son algunas de las mejores plataformas en línea para practicar la codificación relacionada con algoritmos?