Sí, si entiendo la pregunta correctamente. Los hiperparámetros estaban allí para empezar. Pocos modelos están libres de parámetros. La parte jerárquica (en el contexto de los hiperparámetros) implica que, en lugar de utilizar algún procedimiento empírico (p. Ej., Validación cruzada), traeremos los hiperparámetros al modelo y aprenderemos las distribuciones para ellos también para los datos.
Esto significa que los hiperparámetros ahora tienen sus propias distribuciones previas, y parte del proceso de inferencia inferirá su distribución posterior dada una vez que introduzcamos los datos. Por supuesto, al hacer esto, lo más probable es que hayamos introducido más hiperparámetros (aquellos que parametrizan las distribuciones de HP). Esto puede continuar, pero generalmente una de esas capas es suficiente ya que el modelo generalmente se vuelve más y más robusto para la parametrización de niveles más altos en la jerarquía.
- ¿Cuál es la diferencia entre aprendizaje automático, minería de datos y recuperación de información?
- ¿Cuáles son todas las diferencias entre el aprendizaje en línea y el aprendizaje fuera de línea con backpropagation?
- ¿Cuánto tiempo tomará aprender Python para que pueda aprender el aprendizaje automático?
- ¿Qué tipo de programas de back-end ejecuta YouTube, como el aprendizaje automático y otros programas funcionales?
- ¿Cuáles son algunos de los mejores algoritmos de aprendizaje automático, considerando la eficiencia, la facilidad de implementación, etc.?