¿Es esta tabla Hoja de trucos de Machine Learning (para scikit-learn) una descripción precisa de cuándo se deben aplicar diferentes técnicas de aprendizaje automático?

Las Cheat Sheets son excelentes para darle una visión general. Incluí una de las hojas de trucos más populares de Scikit-Learn de DataCamp. Puede obtener una lista completa de las hojas de trucos de Ai / ML aquí:

Hojas de trucos para IA, redes neuronales, aprendizaje automático, aprendizaje profundo y Big Data

La lista anterior incluye: Hoja de trucos de aprendizaje automático, Hoja de trucos de redes neuronales, Keras, Ciencia de datos, Pandas, Scikit, Pyspark, TensorFlow y muchos más.

SciKit Learn:

Sobre Scikit-Learn: Scikit-Learn es una biblioteca de aprendizaje automático de software libre para el lenguaje de programación Python. Cuenta con varios algoritmos de clasificación, regresión y agrupación que incluyen máquinas de vectores de soporte, bosques aleatorios, aumento de gradiente, k- medias y DBSCAN, y está diseñado para interactuar con las bibliotecas numéricas y científicas de Python NumPy y SciPy.

Publicado originalmente en: Hojas de trucos para IA, redes neuronales, aprendizaje automático, aprendizaje profundo y Big Data

Obtenga más información sobre Ai aquí: convertirse en humano

Bueno, no es del todo grave y por alguna razón se volvió totalmente viral.
La idea es dar un bosquejo muy aproximado a alguien bastante nuevo en el tema y no pretende ser exhaustivo. Vea también mi comentario en la publicación original:
Hoja de trucos de Machine Learning (para scikit-learn), que dice que realmente no deberías tomar esto en serio 😉

La idea es principalmente dar una visión general de qué métodos podrían ser un buen punto de partida y cuál debería ser el mínimo que debería intentar. También proporciona pautas sobre qué métodos son factibles en qué tipo de conjuntos de datos.

Desafiaría un poco a Vinay por el hecho de que es específico de scikit-learn. Usé los nombres de scikit-learn (SVC en lugar de SVM), pero creo que la mayoría de los razonamientos son independientes de la implementación.

Algunos comentarios sobre las otras respuestas:

Vinay
1. Si bien la no superposición de los conjuntos puede no ser estrictamente cierta, creo que es una buena guía para las personas que son nuevas en el tema. Las personas que quieren discutir con esto claramente no son el público.

2. Es realmente difícil visualizar el preprocesamiento en este gráfico en mi humilde opinión. No me gusta esto y enfaticé su importancia en la publicación del blog. Lo mismo ocurre con la selección del modelo. Raramente he visto NNMF utilizado con éxito y es un método mucho menos extendido que cualquier otro en este gráfico.

3. Cuando escribí esto, SO no era tan popular entre el personal de sklearn 😉

A la toma:
Esto no tiene la intención de desalentar la experimentación sino alentarla. Muchas de las opciones son “Lo que es factible con esta cantidad de datos” y lo que se sabe que funciona bien.

Es una hoja de trucos para scikit-learn. Nada mas. Nada menos. ¿Hay algo blasfemo mal allí? Realmente no. ¿Es integral? Realmente no.
Si me presionan mucho para jugar al abogado del Diablo, entonces podría conjurar las siguientes casi críticas:

1: La naturaleza no superpuesta de los conjuntos etiquetados como ‘agrupamiento’, ‘clasificación’ y ‘regresión’ no es (conceptualmente hablando) aceptable para algunas especializaciones en estadísticas que conozco personalmente.

2: Han excluido los bloques de Selección de modelo y Preprocesamiento. He usado NNMF en el pasado y eso parece faltar también (dentro de Dim Reducation).

3: Añadiría otro pseudo-nodo al final de cada cuadro verde que se etiquetaría como ‘¿Resultados pobres / error inesperado?’ y vincularlos a todos a este lugar:
Preguntas más recientes de ‘scikit-learn’
Hay jedis muy versados ​​allí.

Esto no está mal, pero no hay razón para no probar múltiples métodos en su conjunto de datos para ver qué está funcionando mejor, no es una cosa mutuamente excluyente donde un algo es la opción correcta. Además de algunas reglas muy genéricas, es muy difícil predecir cuál ofrecerá el mejor rendimiento, en particular en grandes conjuntos de datos.

Así que estoy de acuerdo con Vinay, toma esta imagen por lo que es, pero no la tomes como una imagen bíblica 🙂

Parece decente, aunque mi propio trabajo se canaliza hacia el contenedor de “mala suerte”, por lo que no lo incluye todo.

More Interesting

¿Por qué el uso de información mutua / ganancia de información / funciones similares funciona mejor que simplemente usar el error promedio (usando probabilidad) para un booleano (conjunto de datos de 2 clases) al construir un árbol de decisión?

¿Cuáles son las ventajas y desventajas de utilizar una combinación de impulso + árboles de decisión frente a algún otro enfoque en un problema de clasificación?

¿Cómo afectan los registros duplicados en el conjunto de datos de entrenamiento a un clasificador Naive Bayes?

¿Qué son las vigas reforzadas sobrerreforzadas, subreforzadas y equilibradas?

¿Cuál es la diferencia entre pre-entrenamiento y pre-procesamiento?

¿Cómo podemos interpretar el coeficiente para cierta variable independiente en regresión lineal simple y para el mismo en regresión lineal múltiple?

¿Cuál es la desventaja de usar ADVI?

¿Hay alguna diferencia entre el algoritmo de retropropagación utilizado en la etapa de ajuste fino del autoencoder y el algoritmo típico de retropropagación?

Mi campo de interés para el doctorado es la visión por computadora, el aprendizaje automático y el procesamiento de imágenes. ¿Qué recursos hay para principiantes con respecto a estos temas? Yo sé Java; ¿Debo aprender otros idiomas primero o puedo comenzar los cursos de inmediato?

¿Cómo reconoce la red neuronal convolucional los objetos de las imágenes sin la percepción o reconocimiento 3D?

La minería de datos es una versión más fuerte de ajuste de curvas, ¿es correcta?

Estamos viendo el comienzo de las máquinas que pueden codificar. ¿Aprender un lenguaje de programación aún sería útil en la carrera de ML?

Cómo aplicar una técnica de validación cruzada en un modelo LSTM

¿Es inevitable la multicolinealidad en los datos experimentales? Si no, ¿en qué condiciones podemos esperar multicolinealidad?

¿Cuál es una explicación intuitiva de la aproximación de la función de codificación de mosaico en el aprendizaje por refuerzo?