Lo que has descrito es un campo escalar (creo que, al menos, eso es lo que parece que has descrito). Un campo escalar es una función de un solo valor sobre el espacio: [matemática] f (x, y, z) [/ matemática].
Hay diferentes formas de definir la “complejidad” de la distribución, por lo que tendrá que definir con mayor precisión lo que quiere decir. La entropía de la información y la complejidad de Kolmogorov son dos de esas definiciones. Ninguno de los dos puede calcularse exactamente, pero ambos se aproximan mediante algoritmos de compresión de datos estándar: cuanto menor es la complejidad, mayor es el grado de compresión alcanzado. Puede intentar serializar sus datos y luego aplicar un algoritmo de compresión de cadena estándar, o puede intentar mirar algoritmos de compresión de nube de puntos 3D , de los cuales hay muchos. Por ejemplo, la compresión de atributos de nube de puntos con transformación de gráfico sería apropiada para datos dispersos que tienden a estar en superficies o líneas, mientras que la compresión fuera de núcleo y la descompresión de grandes campos escalares n- dimensionales serían más apropiadas para datos densos.
- ¿Cómo funciona un algoritmo?
- Se da una matriz (n). La matriz puede atravesarse por saltos de tamaño <= k. Si en el índice i, un salto puede aterrizar en cualquier lugar desde i + 1 hasta i + k index.
- ¿Son los algoritmos de detección de imágenes el futuro de Silicon Valley?
- ¿En qué lenguaje de programación están escritos los algoritmos de aprendizaje automático de Google: C ++ o Java? ¿Por qué?
- Soy completamente nuevo en algoritmos. ¿Cuál es el mejor libro / curso / método para realmente entrar en ellos?