La regularización es la técnica para evitar el sobreajuste. Básicamente, agrega un parámetro de ajuste a su modelo para inducir suavidad. Esto generalmente se realiza agregando un múltiplo constante al vector de peso existente. El objetivo principal de su modelo debe ser generalizar bien los datos. No debería aprender tanto los ejemplos de capacitación que no sea capaz de hacer la predicción correcta para los datos no vistos. Esto generalmente ocurre cuando el número de características excede el número de observaciones. La regularización es la técnica para prevenir este escenario.
El sesgo inductivo, por otro lado, es el sesgo de aprendizaje que se produce cuando el alumno hace ciertas suposiciones para hacer la predicción. Esto podría ser cualquier cosa, cualquier base para elegir una generalización sobre otra. La navaja de Occam es el ejemplo más común de sesgo inductivo. Por ejemplo, en el caso de ingenuos unidos, suponemos que cada entrada depende solo de la etiqueta de salida, las entradas son independientes entre sí. Este es un sesgo inductivo. En el caso de los árboles de decisión, decimos que los árboles más cortos son preferibles a los más largos. Este es nuevamente un ejemplo de sesgo inductivo.
- ¿Qué se considera estado de arte para la traducción automática neuronal?
- ¿Dónde puedo encontrar un tutorial detallado sobre los árboles de decisión?
- ¿Cuáles son algunos de los buenos libros sobre redes neuronales artificiales, minería de datos, aprendizaje automático, big data y análisis de datos?
- ¿Los bosques aleatorios son solo un tipo de Monte Carlo?
- ¿Cómo se realiza el aprendizaje automático supervisado cuando sus datos no caben en una sola máquina? ¿Los clasificadores de libros de texto como los clasificadores SVM o Naive Bayes siguen siendo tan importantes o incluso factibles a medida que aumenta el tamaño de sus datos o los algoritmos diferentes se vuelven más populares?