¿Google está empleando o investigando memorias temporales jerárquicas?

No he trabajado en Google ni sé exactamente sobre sus intereses en los HTM, pero he aquí por qué no creo que Google u otras compañías de Big Data puedan estar investigando exclusivamente en HTM a gran escala.

He trabajado un poco con HTM a través de NuPiC y he estado siguiendo su curso en el campo desde sus primeros días. HTMs o Hierarchical Temporal Memories son un modelo basado en la neurociencia de la neocorteza humana. Jeff Hawkins había compilado inicialmente amplios conocimientos de neurociencia en un solo marco. Aunque el HTM original no era muy fiel a la neurociencia, capturó la esencia de lo que estaba haciendo la neocorteza. Demuestra el poder de las arquitecturas jerárquicas que tienen la capacidad de profundizar en los datos para extraer correlaciones y estructuras internas.

Sin embargo, hay un par de problemas con el marco. Es un modelo complicado de un grupo de neuronas. Involucra múltiples algoritmos de agrupamiento (K-means y Agglomerative Hierarchical Clustering) junto con modelos de Markov en cada nodo o ‘neurona’. Esto crea un modelo que es difícil de obtener conocimientos teóricos debido a su complejidad. La presencia de un cóctel de algoritmos también lo hace relativamente costoso desde el punto de vista computacional en comparación con otras arquitecturas jerárquicas.

Por lo tanto, los HTM no pudieron causar un gran impacto en la comunidad académica, sin embargo, fue exitoso al aumentar el reconocimiento creciente del poder de las estructuras jerárquicas. Andrew Ng mencionó que se inspiró nuevamente para hacer otro intento en el problema de ‘inteligencia’. Sin embargo, luego enfocó todos sus esfuerzos de laboratorio hacia el aprendizaje profundo, que es otro paradigma que involucra estructuras jerárquicas y respaldado con mucha teoría. Podría ser justo decir que las arquitecturas de aprendizaje profundo han ganado más popularidad que los HTM u otros modelos jerárquicos como HMAX (modelo de corteza visual del MIT) debido a su poder demostrado en una serie de aplicaciones y puntos de referencia del mundo real como Imagenet. La sobrecarga computacional de los HTM también contribuyó a que no fuera tan popular.

El laboratorio de Tomaso Poggio en el MIT también intenta proporcionar una explicación teórica de por qué las arquitecturas profundas tienden a funcionar, e incluyen HTM en la lista debido a su arquitectura jerárquica. Así que, en general, las compañías de big data parecen definitivamente interesadas en arquitecturas profundas, pero los HTM podrían no hacer el corte dada su complejidad.

EDITAR: Como señaló David Ray en su respuesta, la versión de HTM de la que estoy hablando es una de las primeras versiones publicadas. Numenta era una empresa de investigación entonces. Los nuevos algoritmos de aprendizaje cortical funcionan de manera diferente y, de hecho, podrían tener versiones escalables eficientes. Mi respuesta se refiere a la aplicabilidad de la versión anterior del algoritmo a problemas escalables.

Involucra múltiples algoritmos de agrupamiento (K-means y Agglomerative Hierarchical Clustering) junto con modelos de Markov en cada nodo o ‘neurona’. Esto crea un modelo que es difícil de obtener conocimientos teóricos debido a su complejidad.

Esto ilustra que no está familiarizado con (al menos las teorías recientes) HTM y la teoría HTM (como se describe en el documento Algoritmo de aprendizaje cortical).

La teoría HTM emplea un modelo de representación biológica “real” utilizando supuestos de funcionalidad neuronal.

Vuelva a familiarizarse, ya que puede estar refiriéndose al intento hace 10 años; cual fue el intento original de entender la biología.