Depende de lo que quieras decir con “aprender cosas diferentes”.
Si aplica factores de aleatorización en un proceso de capacitación supervisado, como valores iniciales aleatorios, el modelo podría converger fácilmente a diferentes soluciones. Las diferentes soluciones son diferentes formas de lograr el resultado según lo limite la función de costo aplicada. Por lo tanto, “aprender cosas diferentes” en este caso estaría convergiendo a diferentes formas de hacer lo mismo, posiblemente una significativamente mejor que la otra. Esta técnica se usa a menudo para tratar de evitar quedarse atascado en los mínimos locales.
En un proceso de capacitación no supervisado donde el resultado no está limitado por una función de costo explícito, nuevamente, sí, podría terminar fácilmente con diferentes modelos. Al igual que en el caso supervisado, los factores de asignación al azar lo permitirán, pero para la capacitación no supervisada, la naturaleza de los datos de capacitación también influirá en esto.
- Cómo hacer que una red neuronal funcione como PCA
- ¿Cuáles son las ventajas y desventajas de la traducción automática estadística y basada en reglas?
- ¿Qué significa el impulso en el descenso de gradiente estocástico?
- ¿Cuáles son las diferencias en profundidad, amplitud y rigor entre 6.036 Introducción al aprendizaje automático - MIT, y el curso del Curso de aprendizaje automático de Andrew Ng?
- ¿Debo memorizar las matemáticas y los algoritmos al aprender el aprendizaje automático y el aprendizaje profundo?
Tome un ejemplo simple de agrupamiento. Si los datos son particularmente ambiguos, las soluciones de ML podrían ser drásticamente diferentes. O si los datos se agrupan claramente, no importa cuáles sean los factores de asignación al azar, las soluciones serán idénticas.
Entonces, en el caso no supervisado, “aprender cosas diferentes” podría implicar no solo formas diferentes de hacer lo mismo, sino también resultados bastante distintos.
Ahora bien, esta es una generalización general, pero espero que entiendan.