No, diferentes problemas siempre tendrán diferentes métodos que funcionen mejor. Se trata de encontrar el mejor método para sus datos. No existe un método que sea universalmente el mejor para todos los problemas (también conocido como teorema de no almuerzo gratis, vea a continuación los enlaces).
Cada método tiene algún sesgo y alguna variación, cuanto más se acerque su modelo al verdadero modelo subyacente, mejor puede hacerlo en promedio con ese método. Un ejemplo básico es un estimador de la media de una población. Tomar la media de la muestra (promedio de los puntos de datos) es un buen estimador que a menudo se usa, pero esto tendrá un mayor riesgo (posibilidad de estar equivocado) que un estimador que solo devuelve un valor fijo para la media, si resulta que regresa El valor medio subyacente.
Es decir, el estimador fijo tiene un sesgo muy fuerte y una varianza muy baja, pero si su sesgo es correcto, dará los mejores resultados.
- ¿Hay algún hallazgo reciente que indique que la ascendencia cerebral ocurre como un esquema de error de propagación inversa?
- ¿El submuestreo de un entrenamiento desequilibrado es una buena idea cuando los datos del mundo real, usaré mi clasificador, también estarán desequilibrados?
- ¿Cuáles son algunas buenas ideas de proyectos en el área de análisis / predicción del mercado de valores utilizando Bayes ingenuo?
- ¿Qué tan difícil es pasar de la optimización aplicada al aprendizaje automático / ciencia de datos?
- ¿De qué manera es una 'Máquina de Turing Neural Lie Access' superior a las NTM normales?
Las ideas clave son:
- sin teorema del almuerzo gratis
- Lección de aprendizaje automático del día: el teorema “Sin almuerzo gratis”
- El teorema del almuerzo libre en el aprendizaje automático
- No hay teoremas de almuerzo gratis
- equilibrio de sesgo-varianza
- Compensación sesgo-varianza
- Comprender el equilibrio de sesgo-varianza
Algunos ejemplos más prácticos:
- Por ejemplo, si tiene una serie de valores de respuesta para algunos parámetros de entrada, traza los datos y parece haber una tendencia lineal clara, ¿va a intentar aprender un modelo utilizando una Red de creencias profundas o ajustarlo con ¿Regresión lineal simple?
- Al observar las competencias de Kaggle Machine Learning, el método que mejor se desempeña varía de una competencia a otra, muchas veces los bosques aleatorios funcionan mejor incluso en comparación con los métodos de aprendizaje profundo. La mayoría de las veces es un conjunto de una variedad de diferentes categorías de métodos que brinda el mejor resultado.
- Aunque los métodos de redes profundas se han vuelto muy populares para tareas de aprendizaje visual como la clasificación de imágenes, diría que los métodos no paramétricos bayesianos (como la asignación de Dirichlet latente y el proceso de Dirichlet jerárquico) son igualmente populares y efectivos para los datos de texto, aunque algunas de las extensiones podrían considerarse el aprendizaje profundo lo abordan desde una perspectiva diferente a la de la red profunda, es decir, menos un cuadro negro y más un modelo conceptual del proceso generativo.
Además, hay muchas otras consideraciones que deben considerarse para elegir un método, ya que otros han mencionado que los métodos pueden elegirse en lugar de enfoques de aprendizaje profundo para satisfacer las necesidades específicas de interpretabilidad, limitaciones de recursos, complejidad de algoritmo / software, mantenimiento del sistema / software, extensibilidad etc.