Recuerde la formulación de estos tres granos:
- Gaussiano [matemáticas] K (x, y) = exp (- \ frac {|| xy || ^ 2} {2 \ sigma ^ 2}) [/ matemáticas]
- Laplaciano [matemática] K (x, y) = exp (- \ beta | xy |) [/ matemática]
- Cauchy [matemáticas] K (x, y) = \ frac {1} {1+ \ frac {|| xy || ^ 2} {\ sigma}} [/ matemáticas]
Dado que los tres usan el llamado truco del núcleo, no se calcula la asignación de características real y solo la asignación de características implícita (es decir, [matemática] K (x, y) = \ Phi (x) ^ T * \ Phi (x) [/ matemática ] se calcula.
Entonces, en mi humilde opinión, son inmunes al problema de la alta dimensionalidad de su conjunto de datos (si se refiere a la dimensión en cuanto al número de características en su conjunto de datos). En otras palabras, estos tres núcleos son insensibles a la alta dimensión de las “características”.
- ¿Qué hace la diferencia entre un algoritmo normal y un algoritmo de aprendizaje automático?
- ¿Se puede entrenar la imagen usando la función de activación?
- ¿Puede el aprendizaje automático ayudar con la ciencia del clima?
- ¿Por qué la resolución de las imágenes de entrada en la red convolucional debe tener la misma dimensión (ancho y alto)?
- ¿R es tan popular solo por las bibliotecas que pueden manejar varias funciones estadísticas?
Dicho esto, la matriz de su núcleo será grande si el número de observación es grande (ya que el tamaño de su núcleo es #obsns por #obsns).