Realmente no. Sin embargo, hay un enfoque que funciona bien si tiene grandes cantidades de datos que ocasionalmente he visto usar, que es:
- Genere muchas combinaciones de atributos (por ejemplo, diferencias entre atributos, productos de atributos, relaciones de atributos, etc.). Básicamente, estos son atributos latentes.
- Construye árboles de decisión usándolos.
- Si una variable latente se usa mucho en los árboles de decisión (especialmente cerca de la raíz), sabrá que es útil como discriminante.
Sin embargo, realmente necesita muchos datos para hacer esto ; de lo contrario, los árboles de decisión se adaptarán en exceso. Cuando trabajé con Ross Quinlan (autor de C4.5), tenía una regla general que era mínima para construir un árbol razonable: 5 * número de atributos * número de valores que cada atributo podría tomar (para valores continuos , se ajusta a la precisión que le interesa).
Entonces, por ejemplo, si tiene 32 atributos y cada atributo toma 16 valores, necesita al menos 5 * 32 * 16 = 2560 ejemplos. Si, por ejemplo, observa productos de dos atributos, hay 32 * 31/2 = 496 atributos de producto. Entonces, de repente, necesitas 39680 ejemplos. Haz productos, proporciones, sumas y diferencias, y necesitas ~ 160,000 ejemplos.
- ¿Se pueden utilizar algoritmos genéticos y optimización de enjambre de partículas para construir sistemas de reconocimiento de voz?
- ¿Puede el aprendizaje automático ayudar con la ciencia del clima?
- ¿Cuáles son los algoritmos de aprendizaje profundo que pueden corregir los errores de reconocimiento óptico de caracteres (OCR)?
- ¿Cómo se pueden utilizar los autoencoders apilados para preentrenar una red neuronal que tiene más neuronas en las capas ocultas que entradas? es posible?
- ¿Qué tan poderoso es la PNL?