No.
El algoritmo de aprendizaje cortical se basa en la memoria temporal jerárquica, que es un modelo de memoria desarrollado por Jeff Hawkins. Su raíz es la memoria distribuida dispersa desarrollada por Pentti Kanerva en 1988, que intenta construir un modelo matemático para la memoria humana a largo plazo, y trata de usar este modelo para construir un algoritmo de aprendizaje de predicción de memoria para computadora.
Mientras que el aprendizaje profundo es el desarrollo de redes neuronales, que intentan usar múltiples capas de red para aprender representaciones de datos.
- ¿Cuáles son las mejores pruebas de Turing en línea para engañar a un humano?
- ¿La robótica es parte de la IA? cual es la diferencia entre ellos?
- ¿La IA ha negado las ideas de Descartes?
- ¿Cuáles son algunos de los mejores chatterbots?
- Cómo hacer una IA que juegue un juego
La memoria distribuida escasa usa datos binarios para representar los datos con muchos bits (normalmente 10000 bits, y al mismo tiempo solo se disparan una pequeña fracción de los bits, por eso se llama disperso), mientras que el uso de aprendizaje profundo flotante vector para representar (normalmente solo varios cientos de elementos para cada dato), y la red también usa algún método como el gradiente de descenso para aprender la fuerza de las conexiones en la red.
Take word2vec: herramienta para calcular representaciones distribuidas continuas de palabras. – Google Project Hosting como ejemplo. El algoritmo de aprendizaje profundo aprenderá la representación de palabras de palabras en una gran cantidad de datos (normalmente la dimensión de representación es 200-500, significa usar un número flotante de 200-500 para representar cada palabra). Y la similitud cosina de las palabras refleja la similitud semántica en el documento.