¿En qué sentido los HBF (funciones de base hiper) extienden RBF (funciones de base radial) en el aprendizaje automático?

Las funciones de base radial forman un modelo [math] \ phi: \ mathbb {R} ^ d \ to \ mathbb {R} [/ math] según su nombre, es decir, a través de una base donde cada elemento es una función radial. Para un número fijo [matemática] N [/ matemática] de elementos, o neuronas, y la elección de la función radial [matemática] \ rho [/ matemática],
[matemáticas] \ phi (x) = \ sum_ {i = 1} ^ N a_i \ rho (\ | x – c_i \ | _2) [/ matemáticas]
con los parámetros [math] a_i [/ ​​math] y [math] c_i [/ ​​math], conocidos como el peso y el centro de la neurona [math] i [/ math] respectivamente. Aquí, [math] \ | \ cdot \ | _2 [/ math] simplemente denota la norma euclidiana.

Puede imaginar una serie de generalizaciones basadas en todas las suposiciones hechas en este modelo. Las funciones de base hiper simplemente usan la norma ponderada en lugar de la Euclidiana: [math] \ | x – c_i \ | ^ 2_ {W_i} = (x – c_i) ^ T W_i (x-c_i) [/ math]. Las funciones de base radial son el caso especial donde la matriz de ponderación para cada neurona es la identidad: [matemáticas] W_i = I [/ matemáticas].