El embolsado se usa típicamente cuando se desea reducir la variación mientras se mantiene el sesgo. Esto sucede cuando promedia las predicciones en diferentes espacios del espacio de entidades de entrada.
En el ensacado, primero tendrá que muestrear los datos de entrada (con reemplazo) para generar múltiples conjuntos de datos de entrada. Para cada uno de esos conjuntos, se ejecuta el mismo predictor de referencia (como un SVM, Neural Net, etc.) para obtener un modelo entrenado para cada conjunto de entrenamiento.
Ahora, para hacer la predicción en una muestra de prueba invisible, se ejecuta a través de estos modelos individuales y las predicciones ahora se promedian para obtener la decisión final.
- En el aprendizaje por refuerzo, ¿cómo manejas un gran espacio de acción posible?
- ¿Qué posibilidades hay de que los robots de ancianos cuiden en el futuro cercano?
- ¿Cómo hago un robot?
- ¿Qué es computacionalmente difícil en la automatización de juzgar las coincidencias de esgrima de aluminio?
- ¿Los datos de GTA de Rockstar son útiles para el desarrollo de IA de conducción autónoma?
El ensacado es efectivo porque está mejorando la precisión de un solo modelo mediante el uso de múltiples copias entrenadas en diferentes conjuntos de datos.
No se recomienda el ensacado en modelos que tienen un alto sesgo. En tales casos, se utiliza el refuerzo (Adaboost) que da un paso adelante y elimina el efecto de un alto sesgo presente en el modelo de referencia.