Realmente no. Sin embargo, hay un enfoque que funciona bien si tiene grandes cantidades de datos que ocasionalmente he visto usar, que es:
- Genere muchas combinaciones de atributos (por ejemplo, diferencias entre atributos, productos de atributos, relaciones de atributos, etc.). Básicamente, estos son atributos latentes.
- Construye árboles de decisión usándolos.
- Si una variable latente se usa mucho en los árboles de decisión (especialmente cerca de la raíz), sabrá que es útil como discriminante.
Sin embargo, realmente necesita muchos datos para hacer esto ; de lo contrario, los árboles de decisión se adaptarán en exceso. Cuando trabajé con Ross Quinlan (autor de C4.5), tenía una regla general que era mínima para construir un árbol razonable: 5 * número de atributos * número de valores que cada atributo podría tomar (para valores continuos , se ajusta a la precisión que le interesa).
Entonces, por ejemplo, si tiene 32 atributos y cada atributo toma 16 valores, necesita al menos 5 * 32 * 16 = 2560 ejemplos. Si, por ejemplo, observa productos de dos atributos, hay 32 * 31/2 = 496 atributos de producto. Entonces, de repente, necesitas 39680 ejemplos. Haz productos, proporciones, sumas y diferencias, y necesitas ~ 160,000 ejemplos.
- ¿Cómo es el curso de aprendizaje automático NPTEL?
- Cómo construir la matriz del núcleo para un polinomio de grado finito
- ¿Cuál es la mejor manera de hacer un análisis de sentimientos de los datos de Facebook en Java?
- ¿Existe algún hardware especializado para algoritmos de aprendizaje profundo?
- ¿Qué tipo de aprendizaje automático debería usar Tinder para mejorar su número de coincidencias?