Un área interesante es la de las máquinas de vectores de soporte transductivo (TSVM). La intuición detrás de ese algoritmo es que se podría obtener un mejor límite de decisión maximizando el margen para los datos no etiquetados, así como los datos etiquetados, con el supuesto de que un grupo de puntos de datos densos es probable que sean de la misma clase. Formalmente, la función objetivo SVM (lineal, binaria, sin variables de holgura para mayor claridad) se extiende a
[matemática] O (w) = \ sum_ {l \ in L} sgn (w ^ T x_l) y_l + C \ sum_ {u \ in U} (1- | w ^ T x_u |) _ + [/ math]
donde [math] (x) _ + = \ mbox {max} (x, 0) [/ math] y falta el término de regularización [math] || w || ^ 2 [/ math] debido a los límites de longitud en las ecuaciones . Esto penaliza los puntos de datos no etiquetados que caen dentro del margen, con un peso apropiado [matemática] C [/ matemática]. Tenga en cuenta que el término 1, correspondiente al término objetivo normal de SVM, es convexo, mientras que el término 2, la parte TSVM, es cóncavo. Esta propiedad hace que la función sea difícil de optimizar directamente.
- ¿Cómo podría justificarse Ray Kurzweil si la singularidad no ocurre en 2029?
- ¿Cuáles son los videos más inspiradores sobre inteligencia artificial y robótica?
- ¿Cuál es la relación entre inferencia y transmisión de mensajes en el contexto del aprendizaje automático?
- ¿Cómo puede 'la nube' democratizar la IA?
- ¿Cómo incluyo AI en mi aplicación Chit Chat que estoy desarrollando?
Hay dos enfoques principales para minimizar [matemáticas] O (w) [/ matemáticas]. [1] describe la aplicación de la programación convexa-cóncava al problema, donde optimizan la función objetivo directamente. Es un algoritmo bastante complicado, por lo que se ofrece una alternativa en [2]: use la aproximación
[matemáticas] (1- | x |) _ + \ aprox \ exp (-3x ^ 2) [/ matemáticas]
Que es diferenciable. Los autores parecen haber tenido cierto éxito con él.
[1] Ronan Collobert, Fabian Sinz, Jason Weston, Lon Bottou y Thorsten Joachims. Svms transductores a gran escala. JMLR , página 2006.
[2] Olivier Chapelle y Alexander Zien. Clasificación semi-supervisada por separación de baja densidad. En proc. de int. Taller sobre IA y estadística , 2005.