¿En qué tipos de problemas de regresión son comparables las redes neuronales, las máquinas de vectores de soporte, los bosques aleatorios y las redes neuronales profundas? ¿La superioridad de los métodos depende del tamaño del entrenamiento?

Desde el punto de vista práctico, la elección perfecta depende realmente de su problema, sus propiedades intrínsecas y su complejidad.

Prefiero seguir el camino; (suponiendo que haya realizado el conjunto correcto de pasos de preprocesamiento)

  1. Independientemente del problema que tenga, obtenga una línea de base con Regresión logística para poder comparar los resultados.
  2. Inferir la estructura de datos; ¿Incluye valores categóricos? (Cambiar un poco a través de bosques aleatorios) ¿El número de instancias es mayor que el número de dimensiones? (# Instancias> #dims sentido del kernel SVM) ¿Cuál es la escala de sus datos en comparación con su espacio de instancia universal? (Más pequeños sus datos, necesitan más capacidad de generalización) bla bla …
  3. Aplique el siguiente algoritmo más razonable, vea la mejora de la línea de base y decida qué se debe cambiar y qué falta.
  4. ¿Decidir cambios o un nuevo algoritmo según las observaciones?

Por supuesto, esto es solo una explicación intuitiva al no estar completo. Una nota al pie, incluso la palabra de moda “aprendizaje profundo” parece bastante convincente, requiere un conjunto muy grande de instancias para generalizar bien. Por lo tanto, no pases ciegamente por el aprendizaje profundo. En la mayoría de los casos prácticos, Random Forests rige el aprendizaje profundo, como puedes leer en este post mío;
http://www.erogol.com/free-lunch…