¿Cuál es un ejemplo de un espacio de Hilbert que no es un espacio de reproducción del núcleo de Hilbert?

No tiene que mirar más allá de su (mi?) Viejo amigo [math] \ mathcal {H}: = L ^ 2 ([0,1]) [/ math], es decir, el conjunto de funciones integrables cuadradas en El intervalo de la unidad.

Para mí, es más fácil demostrar que este espacio no es un RKHS al mostrar que el operador de evaluación de puntos asociado no es continuo. Para elaborar, [math] L_x (f) = f (x) [/ math] que toma una función y la evalúa en un punto dado, en este caso x.

Entonces, ¿por qué no se trata de una función continua? Bueno, pensemos en un viejo modo de espera del análisis matemático, el conjunto de funciones de la forma [matemáticas] f_n (x) = n ^ {. 5} \ cdot 1 _ {\ left [0, \ frac {1} {n} \ right]} [/ math], y evaluémoslos en x = 0, así que vamos a usar [math] L_0 [/ math].

Por construcción, la norma [matemática] L ^ 2 [/ matemática] de cada [matemática] f_n [/ matemática] es 1, pero el valor de [matemática] f_n (0) [/ matemática] aumenta y aumenta. Esto muestra que el operador [math] L_0 [/ math] no es continuo y el espacio no es un RKHS.

Entonces, ¿por qué funciona exactamente este contraejemplo? Bueno, en cierto nivel, se debe a la continuidad del espacio de entrada: podemos dejar que una función se vuelva más y más alta, siempre que se vuelva más y más delgada. Tenga en cuenta que este comportamiento no es posible en la pequeña [matemática] l ^ 2 [/ matemática] (las secuencias integrables cuadradas), porque no puede aplastar las cosas a la delgadez arbitraria. Pero, cuando puede, en realidad no hay ninguna razón por la cual la evaluación puntual debería tener algo que decir sobre la norma de una función. Supongo que este es el corazón de la definición de RKHS: ¿ cuándo dice la evaluación puntual algo sobre la norma de una función?

Es una buena pregunta que hice en un contexto similar.

Granos y gravedad cuántica Parte 3: Estados coherentes

Esto me llevó a preguntar

¿Hay algún Kernel útil en Machine Learning que no pueda representarse utilizando la Resolución de identidad

y doy un ejemplo de un espacio de reproducción que no es un espacio de Hilbert:

Reproducción de espacios Kernel Banach con la norma ℓ1 , al

More Interesting

¿Cuál es la forma más sencilla de entender el equilibrio de sesgo-varianza en el aprendizaje automático?

Si una red de alimentación directa de una sola capa es capaz de aproximarse a cualquier grado de precisión, ¿por qué es exitoso el aprendizaje profundo?

Cómo construir mi propio sistema de inteligencia artificial

¿Es un doctorado en inteligencia artificial una cosa? ¿O el doctorado estaría realmente en aprendizaje automático / visión artificial, etc.?

¿Qué conocimiento debo tener antes de aprender el aprendizaje automático?

Con referencia a AdaBoost, ¿qué se entiende exactamente por 'ponderado' cuando se dice que entrena a un clasificador débil dada una distribución ponderada?

Soy nuevo en la programación de Python. Quiero aprender el aprendizaje automático. ¿Qué libros son buenos?

¿Cuáles son algunas optativas de matemáticas avanzadas útiles para un estudiante universitario en CS (junior) que se inclina hacia el aprendizaje automático para la escuela de posgrado?

Cómo implementar un modelo entrenado de TensorFlow (solo parte de propaganda directa) en CPP puro

¿En qué debería concentrarme después de aprender el aprendizaje automático si no estoy interesado en el aprendizaje profundo?

¿Quiénes son algunos de los mayores usuarios de Apache Hive? ¿Cuáles son sus casos de uso? ¿experiencias?

¿Cuánta experiencia ML necesita uno para las competiciones ML de Kaggle?

¿Qué sucederá si divido mis datos en 50:50 para capacitación y pruebas?

¿Es el número de nodos en una capa oculta más que la capa de entrada? ¿Es esto un problema? ¿Qué se puede aprender en tales redes neuronales?

¿Cuál es la relación entre el análisis semántico latente / indexación, SVD y TF-IDF en la minería de texto?