¿Es Bayes jerárquico básicamente una introducción de hiperparámetros en el modelo?

Sí, si entiendo la pregunta correctamente. Los hiperparámetros estaban allí para empezar. Pocos modelos están libres de parámetros. La parte jerárquica (en el contexto de los hiperparámetros) implica que, en lugar de utilizar algún procedimiento empírico (p. Ej., Validación cruzada), traeremos los hiperparámetros al modelo y aprenderemos las distribuciones para ellos también para los datos.

Esto significa que los hiperparámetros ahora tienen sus propias distribuciones previas, y parte del proceso de inferencia inferirá su distribución posterior dada una vez que introduzcamos los datos. Por supuesto, al hacer esto, lo más probable es que hayamos introducido más hiperparámetros (aquellos que parametrizan las distribuciones de HP). Esto puede continuar, pero generalmente una de esas capas es suficiente ya que el modelo generalmente se vuelve más y más robusto para la parametrización de niveles más altos en la jerarquía.