¿Existe alguna implementación para un clasificador incremental que pueda ejecutarse en un espacio dinámico de características, lo que significa cuando aparecen nuevas características?

http://www.jmlr.org/papers/v7/zh…

En la selección de características de flujo continuo , las nuevas características se consideran secuencialmente para agregarlas a un modelo predictivo. Cuando el espacio de características potenciales es grande, la selección de características de flujo continuo ofrece muchas ventajas sobre los métodos de selección de características tradicionales, que suponen que todas las características se conocen de antemano. Las características se pueden generar dinámicamente, enfocando la búsqueda de nuevas características en subespacios prometedores, y el sobreajuste se puede controlar ajustando dinámicamente el umbral para agregar características al modelo. A diferencia de los algoritmos tradicionales de selección de características hacia adelante, como la regresión por pasos en la que en cada paso se evalúan todas las características posibles y se selecciona la mejor, la selección de características por flujo solo evalúa cada característica una vez cuando se genera. Describimos la inversión de información y la inversión α, dos métodos de penalización de la complejidad adaptativa para la selección de características en función del flujo que ajustan dinámicamente el umbral de la reducción de errores requerida para agregar una nueva característica. Estos dos métodos dan falsas garantías de estilo de tasa de descubrimiento contra el sobreajuste. Se diferencian de los métodos de penalización estándar, como AIC, BIC y RIC, que siempre superan o subestiman drásticamente en el límite de un número infinito de características no predictivas. Los resultados empíricos muestran que la regresión por secuencias es competitiva con (en conjuntos de datos pequeños) y superior a (en conjuntos de datos grandes) métodos de selección de características mucho más intensivos en cómputo, como la regresión por pasos, y permite la selección de características en problemas con millones de características potenciales.

Naive Bayes se adapta bien a este enfoque. Dado que Naive Bayes es básicamente poco más que contar, puede (a) hacerse en línea (b) tener una característica agregada fácilmente. Básicamente, agrega una nueva columna a Naive Bayes, establece la probabilidad de que cada valor sea 1 / # (también conocido como corrección de Laplace) y comienza a agregar nuevos datos.

More Interesting

Cómo estructurar sus proyectos de aprendizaje automático

¿Cuáles son los temas que debo saber antes de comenzar el aprendizaje automático?

¿El reconocimiento facial basado en CNN todavía se clasificaría correctamente si la imagen facial presentada está al revés?

¿Por qué la regresión logística se considera robusta a los valores atípicos en comparación con un método de mínimos cuadrados?

Redes neuronales artificiales: ¿Por qué las partes internas de las neuronas se simulan con una suma lineal de entradas en lugar de alternativas no lineales?

¿Qué recursos de tutoría están disponibles para que un ingeniero aprenda Machine Learning en Quora?

¿Cuál es la diferencia entre validación y validación cruzada?

¿Por qué algunos sistemas de recomendación, como Netflix, dejan de funcionar con demasiadas calificaciones?

¿Cuáles son las principales áreas de la investigación bioinformática actual?

¿Cómo funciona KNN?

¿Podrían probarse los conceptos de la medicina tradicional china mediante el aprendizaje profundo?

¿Hay alguna anomalía inexplicable en la codificación de la computadora que pueda sugerir que las máquinas tienen alma?

¿Cómo puede un estudiante de segundo año de Informática llegar al estudio del aprendizaje automático? ¿Cómo comienza uno?

Cómo lidiar con datos sin patrones en los que necesito realizar un modelo de clasificación

¿Es el aprendizaje automático y el aprendizaje profundo una carrera mejor que el desarrollo web ahora?