En el modelado de datos, ¿podría ser una buena idea crear algorítmicamente una característica grande para activar las meta características actuales antes del modelado?

Tal vez, pero podría ser mejor emular un algoritmo que ya lo hace en lugar de hacerlo manualmente.

Con: una “característica” suele ser una agregación para que el conjunto de características termine siendo más pequeño que el número de variables o el número de puntos de datos, dependiendo de si combina variables o combina medidas en diferentes ubicaciones y tiempos en la característica. Si crea un conjunto de características grande, niega este beneficio de la agregación de características.

Pro: muchos métodos de aprendizaje automático producen una gran cantidad de combinaciones y transformaciones de las variables originales y luego eligen y eligen entre ellas. Esto incluye tanto SVM, que se proyectan a espacios de alta dimensión, redes de reservorios, que “se proyectan” a un gran número de neuronas que pueden combinarse linealmente y un muestreo compresivo, que realiza proyecciones aleatorias, algunas de las cuales son muy útiles.

No tengo claro cuándo funciona esta estrategia y cuándo obtienes muchas correlaciones falsas, por eso te sugiero que te aferres a un método existente que hace lo que quieres hacer 🙂

More Interesting

¿Cómo se almacenan la mayoría de los conjuntos de datos para el aprendizaje automático a gran escala?

Con referencia a AdaBoost, ¿qué se entiende exactamente por 'ponderado' cuando se dice que entrena a un clasificador débil dada una distribución ponderada?

¿Cuál es la diferencia entre D3M y el aprendizaje profundo?

Cómo ahorrar tiempo en la implementación de algoritmos de aprendizaje profundo

¿Se ha realizado algún trabajo para hacer que la regresión lineal sea amigable para el laico?

¿Cuál es la diferencia entre diferentes tamaños de kernel convolucional como 3 × 3 y 5 × 5? ¿Existe alguna teoría al respecto?

¿Es cierto que incluso si podemos modelar a partir de la distribución del modelo [matemática] p (x) [/ matemática], el muestreo de importancia óptima no es [matemática] p (x) [/ matemática]?

Algunas cosas "fueron modeladas como procesos de Poisson". ¿Qué quieren decir con eso?

¿Qué tipo de modelos o técnicas de aprendizaje automático deberían usarse en los datos de la marca de tiempo del lote (por ejemplo, temperatura durante 2 horas)?

¿Cuál es el mejor título de maestría para obtener hoy en inteligencia artificial, aprendizaje automático, etc.?

Cómo lidiar con un trabajo de investigación cuando contiene muchos materiales de fondo que no has estudiado

¿Vale la pena probar PCA en sus datos antes de alimentar a SVM?

¿Alguna vez ha utilizado el aprendizaje automático de alguna manera para ayudar en las pruebas de software y la automatización de pruebas?

¿Qué cursos deben tomar los antecedentes de EE para el aprendizaje profundo?

¿Cuáles son los conjuntos de datos beneficiosos para el análisis de sentimientos de Twitter como proyecto de análisis de datos?