Sí, más o menos, si piensas en PageRank como un algoritmo de aprendizaje no supervisado.
La función de error que se minimiza es la diferencia entre aproximaciones sucesivas de PageRank. PageRank es el vector propio principal de la matriz de adyacencia web, que se comporta bastante bien, modula algunos supuestos y ajustes para las páginas colgantes (sin enlaces de salida). Estas propiedades aseguran una rápida convergencia del algoritmo, en aproximadamente cientos (s) de iteraciones.
Tenga en cuenta que el PageRank se trata de representaciones dispersas, como representaciones únicas en los primeros enfoques de aprendizaje automático. Las propiedades de convergencia y el buen comportamiento de la matriz de adyacencia web es lo que hizo posible los cálculos rápidos de PageRank, incluso en representaciones dispersas muy ineficientes de un valor de rango por página.
- AI aprende de los datos del pasado para predecir, entonces, ¿debería haber preocupaciones en torno al pensamiento grupal? ¿La creatividad tendrá éxito en un mundo más autónomo?
- ¿Cuál es la mejor clase de Machine Learning en Penn?
- ¿Qué hay de nuevo con Wasserstein GAN?
- ¿Cuáles son las mejores universidades para estudiar visión artificial con un enfoque en aprendizaje profundo?
- ¿Las redes neuronales son siempre convexas con respecto a los pesos? Y si no, ¿cómo funciona tan bien el descenso de gradiente?
También tenga en cuenta que la propagación hacia atrás de las diferencias de Pagerank es simple y directa, a lo largo de los bordes del gráfico web. La propagación hacia atrás en el aprendizaje profundo es más compleja e involucrada, según las funciones de activación de neuronas y la conectividad de red. Todavía tienen que gestionarse en términos de complejidad, pero son claramente más generales.
PageRank impone una estructura, de manera similar a, por ejemplo, word2vec, donde podemos hablar sobre la distancia y los nodos más cercanos. Una lista de resultados clasificados en el PageRank de top-k para una consulta es como una lista de las palabras de top-k más cercanas al espacio de inserción de una palabra de consulta determinada. También hay otras formas en que los vectores propios imponen la estructura más directamente, como el uso del segundo vector propio en la agrupación.