Corto y al grano:
- La reducción de dimensionalidad no es lo mismo que la selección de características. La reducción de la dimensionalidad consiste en la extracción de características (por ejemplo, PCA) y la selección de características (selección de subconjunto similar). Para más detalles: Respuesta de Prem R. Adhikari a ¿Cuáles son las explicaciones de los términos reducción de dimensión, selección de características y extracción de características?
- No puede obtener un subconjunto exacto de características con PCA. PCA transformará sus datos en la dirección de mayor variación, es decir, convierte los datos en datos completamente nuevos. Después de PCA, el primer componente principal sería el predictor más importante en el sentido de que explica la mayor variación en los datos, el segundo el mejor, y así sucesivamente.
- PCA en R: ejemplo crudo usando Iris Dataset
datos (iris)
irispca <-princomp (iris [-5]) #remove la quinta columna que es factor (Species)
two_princomp <- cbind (iris [5], irispca $ puntuaciones [, 1: 2])
# Use forrest aleatorio para la clasificación
biblioteca (randomForrest)
rf.iris.princomp = randomForest (Species ~., data = two_princomp, importancia = VERDADERO)
plot (rf.iris.princomp)
El resultado es un bosque aleatorio con un error del 6%. Como se muestra en el gráfico a continuación:
- Cómo discriminar una señal del ruido en la última investigación y desarrollo de AI / ML
- ¿En qué casos notamos un problema de gradiente que explota o desaparece y por qué?
- ¿Cuál es la derivación matemática de la regresión logística?
- ¿Las GPU seguirán dominando la inteligencia artificial y el aprendizaje automático, aumentando el valor de compañías como Nvidia y AMD, o los chips especializados como los de Graphcore se harán cargo?
- ¿Cuál es el estado del arte en reconocimiento de voz en 2016?