¿Cómo se glorifican los métodos del kernel en la coincidencia de plantillas?

Debido a que un método kernel aprende una función de la forma:

[matemáticas] f (x) = \ sum_ {i = 1} ^ {N} \ alpha_i K (x, \ beta_i) [/ matemáticas]

Donde los parámetros son un conjunto de vectores escalares [math] \ alpha [/ math] y también [math] \ beta [/ math]. Cada función del núcleo (la parte [math] K (\ cdot, \ cdot) [/ math]) solo toma su entrada [math] x [/ math] y la compara con algunas [math] \ beta [/ math] y te dice cuánto coincide. Todos esos núcleos generan cada uno su cantidad de coincidencia, que luego se combina mediante una combinación lineal ponderada. Entonces sí, es una coincidencia de plantilla.

Sin embargo, lo mejor de los métodos de kernel es que hay una visión inteligente que le permite encontrar el conjunto óptimo de parámetros [math] \ alpha [/ math] y [math] \ beta [/ math] para muchos tipos diferentes de problemas de aprendizaje . Eso es un gran problema y es por eso que los SVM y los métodos relacionados son tan populares. Es decir, hay piezas rápidas de software que encuentran de manera confiable los mejores parámetros. Esto es muy útil Pero al mismo tiempo, hay muchas cosas que nos gustaría aprender que no se pueden incluir en este formulario, por lo que los métodos del núcleo no son lo único y terminan todo el aprendizaje automático.