Sí, cuando proyecté el conjunto de datos MNIST a través de una red neuronal convolucional (CNN) con solo características fijas aleatorias y entrené una máquina de vectores de soporte lineal (SVM) de varias clases en la parte superior.
El resultado, 86 +% de precisión en 10 000 ejemplos de prueba.
No esperaba que el aprendizaje de transferencia pueda ocurrir incluso con pesos aleatorios no entrenados para el extractor de características CNN.
- ¿Hay proyectos de inteligencia artificial que se centren en personas con discapacidad?
- ¿Será el ser humano un obstáculo para el autodesarrollo de AI?
- ¿Podría alguien darme una visión general del mercado de inteligencia artificial para ventas y CRM?
- ¿Quiénes son los visionarios en IA que debo seguir?
- ¿Cuál es la diferencia entre skip, mirilla y conexiones residuales en redes neuronales?
Esperaba resultados pobres y 86 +% no es pobre para las características fijas aleatorias y solo entrena la capa de clasificación final.
Estoy sorprendido y decepcionado al mismo tiempo.
Parece que las características, especialmente las características de bajo nivel, en una CNN pueden ser aleatorias y fijas y aún así pueden producir buenos resultados.
Ni siquiera estoy seguro de cómo explicar esto correctamente. Pero me ha dado algunas ideas interesantes.
El hecho de que las características aleatorias fijas en un CNN + una capa de salida SVM lineal multiclase entrenable pueda funcionar extremadamente bien en MNIST tal vez muestra que MNIST no es un conjunto de datos tan desafiante.
O esto también puede aplicarse a otros conjuntos de datos más complicados también.
Espero que esto ayude.