Mis 2 centavos se basan tanto en la experiencia empresarial como en Kaggle (2 victorias en 2 años de competencia): no importa cuál sea la distribución de su objetivo. Hoy en día, probar un puñado de algoritmos y ver qué funciona mejor es cuestión de minutos.
Creo que lo que lees es más una forma académica de guiarte por el enfoque clásico de los libros de texto de ML: comienzas con modelos lineales y miras ejemplos de datos de juguetes que son linealmente separables. Luego considera algoritmos que son capaces de separar (ejemplos de juguetes) de objetivos más complejos (y se le presentan las redes neuronales y SVM y el concepto de núcleo). Luego, le muestran problemas que deben tener en cuenta las relaciones condicionales de características para separar el objetivo y usted aprende sobre los árboles de decisión y los conjuntos como los bosques aleatorios.
Hay una razón por la cual Gradient Boosting suele ser el núcleo de la mayoría de las soluciones ganadoras de Kaggle. Estos algoritmos son flexibles, potentes y hoy en día también rápidos, y modelarán la mayoría de los problemas mucho mejor que la mayoría de los otros algoritmos. Puede arrojar ciegamente un GBM a casi cualquier problema y las probabilidades están a su favor de que funcionará de maravilla.
- ¿Puedo hacer una competencia de kaggle con un archivo csv de entrenamiento de 0.5 Gb en mi computadora de 8 Gb y tener éxito?
- ¿Qué sucede si hacemos que la forma de una función de activación sea diferente en cada capa, permitiendo que también se aprenda su forma, si las capas superiores tienen menos unidades, haciéndolas más no lineales?
- ¿Dónde puedo aprender el aprendizaje automático desde cero en C ++?
- ¿Por qué un algoritmo evolutivo es un método inapropiado para usar cuando se busca una clave para descifrar un mensaje codificado cuando solo hay una respuesta correcta?
- ¿Qué algoritmos de optimización son buenos candidatos para la paralelización con MapReduce?