Las funciones de base radial forman un modelo [math] \ phi: \ mathbb {R} ^ d \ to \ mathbb {R} [/ math] según su nombre, es decir, a través de una base donde cada elemento es una función radial. Para un número fijo [matemática] N [/ matemática] de elementos, o neuronas, y la elección de la función radial [matemática] \ rho [/ matemática],
[matemáticas] \ phi (x) = \ sum_ {i = 1} ^ N a_i \ rho (\ | x – c_i \ | _2) [/ matemáticas]
con los parámetros [math] a_i [/ math] y [math] c_i [/ math], conocidos como el peso y el centro de la neurona [math] i [/ math] respectivamente. Aquí, [math] \ | \ cdot \ | _2 [/ math] simplemente denota la norma euclidiana.
Puede imaginar una serie de generalizaciones basadas en todas las suposiciones hechas en este modelo. Las funciones de base hiper simplemente usan la norma ponderada en lugar de la Euclidiana: [math] \ | x – c_i \ | ^ 2_ {W_i} = (x – c_i) ^ T W_i (x-c_i) [/ math]. Las funciones de base radial son el caso especial donde la matriz de ponderación para cada neurona es la identidad: [matemáticas] W_i = I [/ matemáticas].
- En el procesamiento del lenguaje natural (PNL), ¿cuál es la distinción entre minería de opinión, análisis de sentimientos y análisis de temas?
- ¿Cuál debería ser el tamaño apropiado de los datos de entrenamiento mientras se entrena una red neuronal?
- He oído que hay muchas aplicaciones (CV, PNL, etc.) de aprendizaje automático. ¿Cuál elegiste y cuál fue la razón para elegirlo?
- ¿Cómo aprende realmente una red neuronal al observar un conjunto de muestras de datos?
- ¿Cuál es la razón principal por la que la inteligencia artificial no ha despegado? ¿Qué se requiere para que la IA "despegue"?