Los modelos de aprendizaje profundo se han utilizado con éxito para la detección de anomalías.
Los autoencoders son la opción más popular para la detección de anomalías. La idea clave es: aprender un autoencoder que pueda reconstruir bien los datos normales (no anómalos). Es probable que dicho modelo reconstruya nuevos datos normales no vistos (suponiendo que provengan de la misma distribución subyacente que los datos de entrenamiento normales), pero es probable que no pueda reconstruir datos anómalos porque el modelo nunca había visto datos anómalos durante su entrenamiento. Por lo tanto, cuanto mayor sea el error de reconstrucción para un punto de datos, mayor es la posibilidad de que el punto sea anómalo.
Las implementaciones de autoencoders están disponibles en Tensorflow: autoencoders estáticos [1] y autoencoders temporales [2].
- ¿Cuáles son las ventajas de aprender Apache Spark?
- ¿Cuán sensible es el análisis de componentes independientes (ICA) a la simultaneidad de la señal de entrada?
- ¿Cuál es el papel de una capa totalmente conectada en una red neuronal profunda?
- ¿Puede una red neuronal convolucional tener pesos negativos?
- ¿Es mejor hacer una competencia de ciencia de datos en Kaggle o crear un algoritmo comercial en Quantopian para encontrar un trabajo en finanzas cuantitativas?
Referencias
[1] aymericdamien / TensorFlow-Ejemplos
[2] beld / Tensorflow-seq2seq-autoencoder
[3] Discusión para la detección de anomalías usando Deep Learning para datos temporales: ¿Cómo uso las redes LSTM para la detección de anomalías de series temporales?