¿Cuáles son algunos problemas de aprendizaje automático que están más allá del poder de scikit-learn para resolver?

Algunos problemas (o enfoques) que (en mi experiencia) están fuera de las capacidades de Scikit-Learn.

  1. Aprendizaje automático a gran escala de cualquier tipo (en GB, TB o PB de datos en un entorno de escalamiento horizontal)
  2. Algoritmos de aprendizaje automático de series temporales de cualquier tipo (aunque Statsmodels tiene implementaciones en la pila de Python)
  3. Árboles degradados mejorados (aunque algunos de estos, como los modelos Adaboost y Extra Trees, están disponibles dentro de Scikit Learn)
  4. Modelos de aprendizaje profundo de cualquier tipo (aunque existe alguna funcionalidad rudimentaria con máquinas de Boltzmann restringidas)

La última versión que he usado es Scikit-learn 0.18, por lo que quizás las versiones posteriores (dependiendo de cuándo esté leyendo esto) de hecho puedan tener soporte para algunas de estas cosas.

More Interesting

¿Cuáles son los mejores software de aprendizaje automático de código abierto para reconocimiento facial?

¿Cómo debo comenzar con las redes neuronales recurrentes?

¿Cuáles son algunos de los grandes usos de Google TensorFlow?

¿Es razonable excluir valores atípicos en su conjunto de datos de entrenamiento para su clasificador?

¿Por qué el libro de Murphy dice en el clasificador generativo que no tenemos que volver a entrenar el modelo cuando agregamos más clases?

Cómo mejorar en Machine Learning y PNL

¿Cómo funcionan los bots de chat desde una perspectiva de Machine Learning?

¿Por qué Microsoft decidió usar bosques aleatorios en el Kinect?

¿Cuánto aprendizaje profundo puedes aprender en 20 días si trabajas todo el día?

¿Cuáles son los mejores laboratorios de investigación en el campo de los UAV combinados con aprendizaje automático, visión y percepción por computadora?

¿Los HMM aún superan a los LSTM en pequeños conjuntos de datos?

¿Cómo combinaría Apache Spark y CUDA para implementar un marco de aprendizaje profundo?

He implementado con éxito el Descenso de gradiente estocástico y el Descenso de gradiente más pronunciado en C ++. ¿Qué puedo hacer a continuación?

¿Cuáles son los modelos actuales de análisis de sentimiento de arte independientemente de la efectividad?

¿Qué sucede si hacemos que cada unidad de filtro o núcleo en una capa CNN dentro de una red neuronal profunda tenga diferentes tamaños de ventana pero el mismo número de parámetros de peso (lo que resulta en granulado grueso)? ¿Podría conducir a un efecto contextual?