Mi respuesta en Stackoverflow:
La normalización no siempre es necesaria, pero rara vez duele.
Algunos ejemplos:
K-significa:
- Cómo cuidar sus datos de aprendizaje automático cuando hay demasiados experimentos
- ¿Cuáles son los proyectos relacionados con big data y análisis de datos que un individuo puede hacer en su graduación?
- ¿Cuál es la mejor manera de aprender analítica de personas?
- ¿Hay personas trabajando en big data en salud en India?
- ¿Qué campo debo elegir ciencia de datos o desarrollo web completo?
La agrupación de K significa que es “isotrópica” en todas las direcciones del espacio y, por lo tanto, tiende a producir agrupaciones más o menos redondas (en lugar de alargadas). En esta situación, dejar varianzas desiguales es equivalente a poner más peso en las variables con menor varianza.
Ejemplo en Matlab:
X = [randn (100,2) + unos (100,2);…
randn (100,2) -ones (100,2)];
% Introducir deformación
% X (:, 2) = X (:, 2) * 10;
opts = statset (‘Pantalla’, ‘final’);
[idx, ctrs] = kmeans (X, 2, …
‘Distancia’, ‘ciudad’, …
‘Réplicas’, 5, …
‘Opciones’, opta);
plot (X (idx == 1,1), X (idx == 1,2), ‘r.’, ‘MarkerSize’, 12)
Espere
plot (X (idx == 2,1), X (idx == 2,2), ‘b.’, ‘MarkerSize’, 12)
plot (ctrs (:, 1), ctrs (:, 2), ‘kx’, …
‘MarkerSize’, 12, ‘LineWidth’, 2)
plot (ctrs (:, 1), ctrs (:, 2), ‘ko’, …
‘MarkerSize’, 12, ‘LineWidth’, 2)
leyenda (‘Cluster 1’, ‘Cluster 2’, ‘Centroides’, …
‘Ubicación’, ‘NO’)
Agrupación distribuida:
El análisis comparativo muestra que los resultados de la agrupación distribuida dependen del tipo de procedimiento de normalización.
Red neuronal artificial (entradas):
Si las variables de entrada se combinan linealmente, como en un MLP, rara vez es estrictamente necesario estandarizar las entradas, al menos en teoría. La razón es que cualquier cambio de escala de un vector de entrada puede deshacerse efectivamente cambiando los pesos y sesgos correspondientes, dejándolo con los mismos resultados exactos que tenía antes. Sin embargo, hay una variedad de razones prácticas por las cuales estandarizar las entradas puede hacer que el entrenamiento sea más rápido y reducir las posibilidades de quedarse atascado en los óptimos locales. Además, la disminución de peso y la estimación bayesiana se pueden hacer más convenientemente con entradas estandarizadas.
Red neuronal artificial (entradas / salidas):
¿Debería hacer alguna de estas cosas a sus datos? La respuesta es, depende.
La estandarización de las variables de entrada u objetivo tiende a hacer que el proceso de entrenamiento se comporte mejor al mejorar la condición numérica (ver Mal acondicionamiento en redes neuronales) del problema de optimización y garantizar que sean apropiados varios valores predeterminados involucrados en la inicialización y terminación. La estandarización de objetivos también puede afectar la función objetivo.
La estandarización de los casos debe abordarse con precaución porque descarta la información. Si esa información es irrelevante, entonces estandarizar casos puede ser bastante útil. Si esa información es importante, entonces estandarizar casos puede ser desastroso.