¿Cuál es la diferencia entre el trabajo / investigación de IA en DeepMind, Vicarious y Numenta?

Tenga en cuenta que no trabajo para Numenta, y que todas las descripciones aquí presentadas son totalmente la opinión de este autor y no están sancionadas “oficialmente”:

Numenta se formó el 4 de febrero de 2005 por Jeff Hawkins (Fundador de Palm Pilot & Handspring), Donna Dubinsky, ex estudiante de doctorado de Dileep George (Co-Fundador actual de Vicarious) junto con Dileep, luego del lanzamiento de Jeff El libro de Hawkins, “On Intelligence”, que fue pionero en varios conceptos que culminaron en la formación de Numenta.

Fuertemente influenciado por el enfoque matemático de Dileep George; y combinado con los conocimientos más recientes de investigación neurológica de la época, Numenta creó un software dirigido al problema de la visión, pero con una implementación “influenciada” por la neurobiología pero no limitada por ella … (es decir, sin adherirse a una teoría de cómo la neocorteza funciones y no restringido a mantener fuera cualquier cosa que no aparezca en la biología) – disfrutó de un éxito sin precedentes en agudeza visual.

Sin embargo, Jeff comenzó a sospechar que estaba cayendo en la trampa en la que habían caído las técnicas actuales de ML (incluyendo Deep Learning, Deep Mind, etc.) (y actualmente está limitado por), que es el intento de escalar la montaña de desafíos asociados con el desarrollo de una eventual AGI (Inteligencia General Artificial), utilizando la inteligencia matemática, sin duplicar primero el único ejemplo que conocemos que ilustra una arquitectura para la inteligencia avanzada … ¡la neocorteza humana!

El pensamiento de Jeff (creo), fue que dados nuestros intentos fallidos después de aproximadamente 60 años de retraso y disminución del progreso, ¿por qué no recrear primero el modelo que nos ha dado la Madre Naturaleza, antes de intentar burlarlo y embellecerlo? Primero tenemos que entender qué EXISTE antes de intentar crear nuestra propia expresión de vida con mejoras, ¿no?

Entonces, armado con un renovado rigor respaldado por la constatación de que la ruta más corta a la IA es reproducir el único modelo conocido que existe: propuso un viaje de regreso al tablero de dibujo; y para eliminar todas las cosas que no existen actualmente en la neocorteza, de la implementación de Numenta (es decir, no hay matemáticas dentro del cerebro humano).

Dileep George no estuvo de acuerdo, por lo que avanzaron benignamente en dos direcciones diferentes. Dileep George fundó Vicarious, y siguió adelante con ese camino; y Jeff Hawkins regresó a la mesa de dibujo, para luego emerger con el primer progreso realmente emocionante que la humanidad haya tenido, hacia cualquier cosa que parezca que puede apoyar el desarrollo eventual de un verdadero AGI.

ANTES DE DESCRIBIR LO QUE ES ESTE INCREÍBLE DESCUBRIMIENTO …

Permítanme presentarles primero una analogía.

Mirando las imágenes de arriba, notará la progresión de un modelo de cómputo ” ganador ” (aunque la palabra “ganador” aquí debe ser específica para el mecanismo descrito, y no para cualquier “yihad” percibida entre ML y HTM como direcciones futuras porque toda la humanidad está en esto juntos) …

… como progresando de lo específico a lo general. En los primeros días de la informática moderna, se desarrollaron circuitos computacionales para problemas específicos que superaron por mucho el enfoque general de una arquitectura de Von Neummann, ¡pero mira cuál finalmente se adoptó! ¿Por qué? Bueno, en general fue mucho más eficiente usar una arquitectura que pudiera usarse para casi cualquier problema computacional, independientemente del dominio del problema ; que desarrollar circuitos específicos o configurar circuitos existentes que solo podrían usarse en contextos limitados. Y así, el enfoque general ganó.

Estamos viendo la misma dinámica ahora en los enfoques de IA. Las técnicas de ML actuales disfrutan de una modesta cantidad de velocidad computacional (que requiere muchos procesadores de GPU, dependiendo del enfoque al que se hace referencia), pero está específicamente dirigida a resolver problemas explícitos en dominios de problemas específicos, utilizando enormes cantidades de datos hechos a mano / etiquetados que requieren pre -configuración y evaluación de problemas individuales.

En realidad, el término que la mayoría de la gente realmente quiere decir es Machine Intelligence, no Machine Learning; cuando hablan de un enfoque que eventualmente evolucionará en inteligencia general. Para obtener más información sobre cuál es la distinción entre ML y MI, lea este artículo.

Ingrese la teoría HTM (memoria temporal jerárquica) … (Una arquitectura para gobernarlos a todos … ¡Lo siento, no pude resistir la referencia del “Señor de los Anillos”! 🙂)

  • Los HTM no requieren datos hechos a mano, porque son aprendices continuos y aprenden a medida que se les presentan nuevos datos (al igual que la neocorteza humana).
  • Los HTM, como se mencionó anteriormente, ingresarán datos de transmisión organizados en torno a un problema particular, y luego sin ninguna reentrenamiento del modelo; ser utilizado para una clase de problema totalmente diferente simplemente introduciendo nuevos datos!
  • Los HTM no son circuitos rígidos con configuraciones rígidas, en realidad forman dinámicamente nuevas conexiones y eliminan conexiones obsoletas más antiguas (Dendritas y Sinapsis, en lengua vernácula), para remodelar la red y poder hacer predicciones con respecto a los datos recién presentados.
  • Los HTM hacen múltiples predicciones simultáneas sobre los siguientes datos invisibles con sesgos probabilísticos hacia un evento más probable, en función del número de segmentos dendríticos laterales / distales con sinapsis despolarizadas (¡tal como lo hace la neocorteza humana!)
  • Los HTM son extremadamente resistentes al ruido (fragmentos de información extraños o faltantes), y a la muerte celular (es decir, no es probable, pero deberían ser defectuosos o algo así como un cambio de bits debido a las erupciones solares, quién sabe …), debido a las propiedades de los SDR (Escasa representación distribuida – ver papel vinculado ). Ahora es un hecho conocido que solo ~ 2% de la neocorteza está activa en cualquier momento en particular, una propiedad en la que se basan los SDR.
  • La Teoría HTM no introduce conceptos o estructuras que no sean biológicamente plausibles (según lo verificado y verificado por estándares extremos de comparación e investigación neurológica). Numenta está, después de todo, tratando de LLEGAR sin toparse con techos de vidrio imprevistos y que actualmente se está experimentando en el mundo de ML.

Entonces, en referencia a las imágenes anteriores, la teoría HTM representa más completamente un enfoque universal; y si la historia permanece constante, una arquitectura universal robusta es lo que probablemente se adoptará en nuestra inevitable evolución hacia la IA general.

  • ¿Cómo hace la teoría HTM todo esto posible?
  • ¿Por qué es que la Teoría HTM puede atribuirse a nuestra dirección más profunda de obtención de resultados cuando aún no se está utilizando en lugar de la tecnología ML actual en los casos de uso exitosos más recientes?

Primero, se resolvió el problema de cómo se representa la información en el cerebro, que está ordenado por las propiedades de los SDR (Representaciones distribuidas dispersas). ¡Lo que significa que ahora tenemos una teoría de trabajo sobre cómo se almacenan, procesan y transportan los datos reales (conocimiento)! Cuando observa el cerebro humano, hay muchos niveles de escala con los que se puede evaluar el procesamiento funcional. Existe la escala química en la que uno puede verse abrumado en procesos bioquímicos como neurotransmisores y proteínas sinápticas, etc. Luego está la escala celular en la que uno puede perderse en consideraciones de tiempo de pico, etc. No soy un neurocientífico, así que no puedo exactamente representar toda la complejidad involucrada en cualquiera de estos ámbitos.

Entonces, el primer problema fue abordar la escala más apropiada para tratar de dar sentido a lo que está sucediendo. Es un GRAN PROBLEMA con el que muchos investigadores de IA biológicamente orientados y científicos informáticos han luchado durante mucho tiempo; ¡abrumado por su inmensa complejidad!

¡Esta fue la primera gran contribución de Jeff Hawkins & Co.! Numenta tiene una teoría de trabajo viable a la que se agrega constantemente ( con rigurosas restricciones biológicas para no perder el tiempo ), que formula un proceso funcional conceptual en la escala de mini columnas, columnas corticales (muchas, mini-columnas en un paquete) , neuronas (células) y capas neocorticales que contienen estas estructuras (así como las dendritas proximales, laterales y apicales y sus sinapsis).

Resumen:

Este es un momento emocionante para la humanidad en muchas áreas diferentes de investigación de IA, y la teoría HTM, en mi opinión, no busca eludir, reemplazar o disminuir los éxitos recientemente encontrados en otras áreas. Deberíamos estar orgullosos como especie de la gran distancia que hemos recorrido, y si bien la Teoría HTM se está convirtiendo en una vía increíblemente sólida para futuras investigaciones, busca incluir el talento de los investigadores en otras áreas en lugar de excluir a otros en un batalla ridícula sobre qué avenida es “correcta”.

Por ejemplo, aquí hay una charla en la próxima conferencia AI With The Best de Danko Nikolic (Instituto Max Planck) titulada ¿Por qué las redes neuronales profundas nunca pueden igualar la inteligencia biológica y qué hacer al respecto?

¡Entonces dos personas están hablando de inteligencia biológica donde Geoffrey Hinton y Yoshua Bengio están haciendo keynotings! ¡Eso es un buen signo!

Todos nos beneficiamos de la investigación en una variedad de áreas tan amplia como sea posible.

En esa nota. HTM Theory ahora tiene muchos artículos publicados revisados ​​por pares y últimamente ha tenido mucho interés teórico cruzado. Aquí hay un enlace a muchos libros blancos publicados sobre diversos temas: Numenta.com • Documentos de investigación

Además, hay un libro en línea que se actualiza constantemente con las investigaciones más recientes: Biological and Machine Intelligence (BAMI)

Además, hay una gran y vibrante comunidad de código abierto de teóricos, programadores, partes interesadas y contradictores amigables y entusiastas (todos son bienvenidos 😉)

… ok también … 🙂 Hay muchos recursos para aprender la teoría HTM (ya que puede ser un poco abrumador para los nuevos ojos). Por ejemplo, hay una serie de videos que comienza al principio y está siendo desarrollada continuamente por Matt Taylor, el Director de Código Abierto, y cuyo primero de los 6 episodios se puede ver aquí, titulado HTM School.

Como Numenta tiene una misión de “doble parte” de investigar y desarrollar una teoría de trabajo completa de la neocorteza humana; Además de crear software funcional y útil a partir de estos esfuerzos, actualmente tienen dos empresas asociadas que también implementan componentes teóricos HTM en empresas comerciales.

  • Cortical.io “: “Rápido, intuitivo, preciso – PNL” – utilizado por empresas en las principales industrias como la banca, la producción de vehículos, etc. (Algunos de los cuales no pueden ser nombrados en este momento).
  • “Grok”: Maximice la satisfacción del cliente al eliminar el tiempo de inactividad

La implementación actual de Python / C ++ de HTM Theory se llama NuPIC y es totalmente de código abierto. Además, hay un puerto de Java oficialmente autorizado y de origen comunitario llamado HTM.Java, propiedad de Numenta.org, pero desarrollado por la comunidad (y también patrocinado por Cortical.io).

Tengo que decir que me enorgullece ser testigo y colaborador de la Comunidad HTM, ya que se está abriendo camino en muchas áreas y formas diferentes. Por ejemplo, todo el progreso de investigación e implementación de Numenta es totalmente abierto y visible para la comunidad en su sitio de investigación. ¡Algo que nunca antes había visto! Son realmente un crédito a nuestra visión más optimista de quiénes podemos ser como especie. Puede que haya terminado de decirlo un poco, ¡pero realmente lo creo!

Solo puedo hablar desde mi experiencia en Numenta y alentar a los representantes de DeepMind y Vicarious a que también intervengan.

En Numenta, nuestros esfuerzos de investigación están motivados por el objetivo general de aplicar ingeniería inversa a la neocorteza. Hablando en términos prácticos, dado nuestro tamaño, eso a menudo significa mantenerse informado de la literatura, conectando los puntos entre los resultados empíricos en estudios que de otro modo no estarían relacionados. Estamos desarrollando y probando hipótesis que explican el papel funcional de la estructura y el comportamiento en la corteza que contribuyen y permiten la inteligencia. Creo que nuestro sitio web lo explica bien, de Neuroscience Research:

Aunque hay mucho por hacer, hemos logrado un progreso significativo en varios aspectos clave de la teoría cortical. Nuestro primer enfoque fue cómo la neocorteza aprende la estructura en flujos de datos sensoriales. Esto condujo a una teoría integral de por qué las neuronas en la neocorteza tienen miles de sinapsis y dendritas activas, y por qué están organizadas en minicolumnas como se observa en la neocorteza. Tomamos este avance teórico y lo aplicamos a problemas comercialmente valiosos en la detección y predicción de anomalías en la transmisión de datos. Para lograr ese objetivo, creamos un punto de referencia para la detección de anomalías en la transmisión de datos que, por primera vez, proporcionó un medio para comparar los resultados de diferentes algoritmos para la detección de anomalías. Nuestro enfoque de investigación actual es desarrollar una teoría integral de cómo la neocorteza aprende a través del movimiento, lo que a menudo se denomina aprendizaje “sensoriomotor”.

Documentamos nuestra investigación de varias maneras, incluyendo artículos de revistas revisadas por pares, actas de congresos, informes de investigación, charlas invitadas y un libro vivo titulado BAMI (para inteligencia biológica y de máquinas). Además, colocamos todo nuestro software, desde nuestras aplicaciones de grado comercial hasta nuestros compromisos de investigación diarios, en nuestro proyecto de código abierto, NuPIC. Nos esforzamos por ser completamente abiertos en todo lo que hacemos.

Damos la bienvenida a colaboraciones con neurocientíficos e investigadores de aprendizaje automático. También lo alentamos a que se postule a nuestro Programa de Visiting Scholar.

DeepMind está produciendo trabajos innovadores cada dos meses, desde los primeros documentos que llevaron a su adquisición por parte de Google, a AlphaGo el año pasado, hasta documentos más recientes como PathNet, que muestra un nuevo progreso en el aprendizaje de transferencia. DeepMind probablemente tiene la mayor concentración de talento de IA en el mundo. Los competidores cercanos incluyen Google Brain, el laboratorio de investigación de IA de FaceBook dirigido por Yann LeCun y el equipo Baidu dirigido por Andrew Ng. Nadie más se acerca, ciertamente no Vicario y Numenta.

Vicarious y Numenta están conectados a través de Dileep George, y es razonable suponer que su enfoque de la IA comparte similitudes. Ambas entidades son más think tanks que startups.

Numenta es básicamente el proyecto favorito de Jeff Hawkins en este momento, y está investigando sus modelos temporales jerárquicos (HTM). No han hecho mucho caso en los últimos años, a pesar de que se han hecho enormes progresos en el aprendizaje profundo y el aprendizaje de refuerzo en otros lugares.

Vicarious, que George fundó después de abandonar Numenta, recaudó más de $ 72 millones para realizar investigaciones sobre redes corticales recursivas. Han publicado un par de artículos en los últimos años, y la respuesta ha sido básicamente grillos. No están influyendo en otras investigaciones, y no están mostrando resultados especialmente impresionantes.

https://www.reddit.com/r/Machine

Entonces, con toda probabilidad, esos $ 72 millones fueron mal asignados por una comunidad de inversionistas enamorada del pedigrí y deslumbrada por “AI”.