Debido a que un método kernel aprende una función de la forma:
[matemáticas] f (x) = \ sum_ {i = 1} ^ {N} \ alpha_i K (x, \ beta_i) [/ matemáticas]
Donde los parámetros son un conjunto de vectores escalares [math] \ alpha [/ math] y también [math] \ beta [/ math]. Cada función del núcleo (la parte [math] K (\ cdot, \ cdot) [/ math]) solo toma su entrada [math] x [/ math] y la compara con algunas [math] \ beta [/ math] y te dice cuánto coincide. Todos esos núcleos generan cada uno su cantidad de coincidencia, que luego se combina mediante una combinación lineal ponderada. Entonces sí, es una coincidencia de plantilla.
- ¿Cuáles son algunos buenos ejemplos donde el agrupamiento se usa como método para la extracción de características?
- ¿Cómo se relaciona el algoritmo RANSAC con la visión por computadora?
- ¿Qué es más beneficioso para la comprensión general de la informática, el procesamiento del lenguaje natural o la teoría de la computación?
- ¿Cómo se puede usar Machine Learning para resolver el siguiente problema?
- ¿Cuál es la diferencia entre los datos de entrenamiento y los datos de prueba?
Sin embargo, lo mejor de los métodos de kernel es que hay una visión inteligente que le permite encontrar el conjunto óptimo de parámetros [math] \ alpha [/ math] y [math] \ beta [/ math] para muchos tipos diferentes de problemas de aprendizaje . Eso es un gran problema y es por eso que los SVM y los métodos relacionados son tan populares. Es decir, hay piezas rápidas de software que encuentran de manera confiable los mejores parámetros. Esto es muy útil Pero al mismo tiempo, hay muchas cosas que nos gustaría aprender que no se pueden incluir en este formulario, por lo que los métodos del núcleo no son lo único y terminan todo el aprendizaje automático.