La diferencia depende de tus datos.
Para los vectores de alta dimensión, puede encontrar que Manhattan funciona mejor que la distancia euclidiana.
La razón de esto es bastante simple de explicar. Considere el caso donde usamos la norma [math] l_ \ infty [/ math] que es la distancia de Minkowski con exponente = infinito. Entonces la distancia es la mayor diferencia entre dos dimensiones de sus vectores. Podemos ver que esto no tiene sentido en muchas dimensiones, ya que estaríamos ignorando la mayor parte de la dimensionalidad y midiendo la distancia en función de un solo atributo.
- ¿Qué es el algoritmo? ¿Para qué sirve?
- ¿Por qué el orden de selección no se denomina orden de intercambio?
- Cómo resolver un problema de puente colgante utilizando circuitos y dónde una persona puede cruzar el puente a la vez
- ¿Qué calcularía los algoritmos pesados en matemáticas más rápido: FPGA o GPU?
- Si [matemática] f (n) [/ matemática] [matemática] \ en O (n) [/ matemática] y [matemática] g (n) \ en O (n) [/ matemática], es [matemática] f ( g (n)) \ en O (n ^ 2)? [/ matemáticas]
Por lo tanto, reducir el exponente hace que las otras características jueguen un papel más importante en el cálculo de la distancia. Cuanto menor sea el exponente, menos relevante será una gran diferencia en alguna dimensión dada.
Algo interesante es que las distancias con exponente <1 podrían funcionar incluso mejor que Manhattan: [matemáticas] (|| xy || ^ p) ^ {1 / p} [/ matemáticas] con p <1. Curiosamente, estas distancias no son métricas válidas, ya que la desigualdad triangular no se cumple, pero se pueden usar de todos modos.
Gracias por la A2A
Luis.