Realmente no. Sin embargo, hay un enfoque que funciona bien si tiene grandes cantidades de datos que ocasionalmente he visto usar, que es:
- Genere muchas combinaciones de atributos (por ejemplo, diferencias entre atributos, productos de atributos, relaciones de atributos, etc.). Básicamente, estos son atributos latentes.
- Construye árboles de decisión usándolos.
- Si una variable latente se usa mucho en los árboles de decisión (especialmente cerca de la raíz), sabrá que es útil como discriminante.
Sin embargo, realmente necesita muchos datos para hacer esto ; de lo contrario, los árboles de decisión se adaptarán en exceso. Cuando trabajé con Ross Quinlan (autor de C4.5), tenía una regla general que era mínima para construir un árbol razonable: 5 * número de atributos * número de valores que cada atributo podría tomar (para valores continuos , se ajusta a la precisión que le interesa).
Entonces, por ejemplo, si tiene 32 atributos y cada atributo toma 16 valores, necesita al menos 5 * 32 * 16 = 2560 ejemplos. Si, por ejemplo, observa productos de dos atributos, hay 32 * 31/2 = 496 atributos de producto. Entonces, de repente, necesitas 39680 ejemplos. Haz productos, proporciones, sumas y diferencias, y necesitas ~ 160,000 ejemplos.
- ¿Dónde puedo aprender a hacer predicciones básicas con RapidMiner?
- ¿Cuál es un buen conjunto de datos de Kaggle para practicar el ajuste de modelos de regresión logística o modelos jerárquicos?
- Si una red de alimentación directa de una sola capa es capaz de aproximarse a cualquier grado de precisión, ¿por qué es exitoso el aprendizaje profundo?
- Para un maestro en aprendizaje automático, ¿cuál sería una mejor opción, KTH (MS en aprendizaje automático) o Chalmers (MS en sistemas adaptativos complejos)?
- ¿Qué es el código de máquina?