Bosques al azar,
- Es robusto contra el sobreajuste al menos con mis experiencias y las afirmaciones del creador Leo Breiman y Adele Cutler.
- Está influenciado por el Adaboost.
- Da mejores resultados con el creciente número de ejemplos.
- También podría usarse para la agrupación, la inferencia estadística y la selección de características
- Funciona bien con datos numéricos y categóricos (necesita estimar una distribución sobre valores continuos para bayes ingenuos, sin embargo, es controvertido tener algunas suposiciones)
Sin embargo;
- más lento para entrenar
- Es necesario establecer bien sus parámetros de aleatorización. (Selección de nodos, número de árboles, aleatorización de variables de instancia).
- Algunas objeciones por su sobreajuste.
Ingenuo Bayes,
- ¿Por qué se usaría H2O.ai sobre la herramienta de aprendizaje automático scikit-learn?
- Soy un graduado en ingeniería eléctrica. Quiero seguir estudios superiores en aprendizaje automático o inteligencia artificial en EE. UU. ¿Qué tengo que hacer?
- ¿El aprendizaje automático es un comienzo de invasión de estadísticas?
- Entre la agrupación y la clasificación, ¿cuál requiere más experiencia?
- ¿En qué casos notamos un problema de gradiente que explota o desaparece y por qué?
- Fácil de entrenar y entender los resultados,
- Tiene diferentes extensiones para diferentes necesidades.
- Su modelo es más pequeño que los bosques aleatorios, ya que debe mantener todos los árboles en la memoria.
- Resultados prometedores para tareas textuales.
- Hace que cualquiera pueda hacer ML si sabe contar.
sin embargo
- Como su nombre se basa en suposiciones ingenuas que generalmente no son concordantes con los datos (exp: Todas las variables no están correlacionadas entre sí, pero en general no es cierto)
- Es realmente frágil el sobreajuste sin ningún supuesto de regularización.