En realidad no, porque la función del núcleo es, en términos generales, algo que codifica la similitud en el espacio de entrada, de modo que la salida de una entrada desconocida se puede predecir a partir de entradas conocidas a través de esta similitud. Básicamente es como asignar los datos de entrada a otro dominio representándolos por su similitud y resolver su problema en ese dominio.
Por otro lado, una función de función en CRF (y modelos lineales / log-lineales / no lineales en general) es algo que cree que representa un cierto aspecto de los datos. Puede usar cualquier cosa que genere algún número para eso, sin mencionar su utilidad.
Para los CRF, puede usar cualquier función de valor real como función de función (a menudo se usan funciones booleanas), pero en SVM (y máquinas de núcleo), un núcleo debe ser positivo (semi) definido, ya que debe actuar como un ” medida de similitud (o producto de puntos generalizado). En este sentido, los núcleos capturan un cierto aspecto de los datos de entrada; sí, puede llamar a los núcleos como funciones de función, pero no al revés. (Si observa la regla de predicción de SVM (y máquinas del núcleo), no es más que una suma lineal de núcleos para cada punto de datos de entrada (conocido), cada uno de los cuales es una “función de función” que se define como una similitud con un punto de datos)
- ¿Qué conocimiento matemático se necesita para comenzar a trabajar en el aprendizaje profundo?
- ¿Todas las funciones de pérdida sufren el problema del gradiente de fuga en las redes neuronales?
- ¿Existe una definición matemática para una máquina de vectores de soporte?
- ¿En qué se diferencia LSTM de RNN? En una explicación laica.
- ¿Cuál es la forma mejor y más simple de agrupar productos por sus nombres?