¿Cuál es la próxima gran cosa en el aprendizaje automático después de que hayamos terminado con el aprendizaje profundo?

Deep Learning ha evolucionado, sigue evolucionando y probablemente continuará evolucionando.

El aprendizaje profundo puede ir en la dirección de Supermatemáticas, o Superespacio euclidiano, porque hay:

(1) Evidencia de que el cerebro realiza alguna forma de operación supersimétrica.

(2) La realidad de que el Aprendizaje profundo usa las reglas de la ciencia cognitiva en el vecindario de (1) para vincular modelos de alguna manera, como cómo Deepmind limita algunos de sus modelos en términos de ciertas reglas de la ciencia cognitiva.

Supermatemáticas y una hipótesis experimental :

Por ejemplo, basado en la máquina Quantum Boltzmann y el aprendizaje de refuerzo cuántico , (Vea el video de la máquina Quantum Boltzmann) organicé una hipótesis simple para implementar Deep Learning en Euclidean Superspace, en una computadora cuántica (es decir, el sistema Dwave).

Vea una descripción clara de la hipótesis: Supermatemáticas e Inteligencia Artificial General

Ver la hipótesis: Curvatura del pensamiento: una hipótesis subivativa

Vea una discusión sobre la hipótesis, en un tablero de ciencias aquí (que conduce a una conversación con una persona que parece hacer física de partículas aquí).

Notación 1 – Aprendizaje múltiple : [matemáticas] \ phi \ big (x, \ theta \ big) ^ {\ top} w [/ matemáticas] (Bengio et al)

Notación 2: Aprendizaje supermanifold : [matemáticas] \ phi \ big (x; \ theta, \ bar {{\ theta}} \ big) ^ {\ top} w [/ math] (Jordan Bennett)

Si bien el aprendizaje profundo tradicional puede implicar un aprendizaje múltiple, mi trabajo se refiere al aprendizaje supermúltiple, como se ve brevemente en las diferencias de notación anteriores.

Notablemente, la hipótesis implica una forma probable de ejecutar Deep Learning, en el régimen del Superespacio euclidiano, al generalizar desde la operación hamiltoniana Transverse Field Ising Spin que se ve en el video de Quantum Boltzmann Machine, a alguna forma de secuencia (Super-) hamiltoniana :

Nota de pie de página – limitaciones de la hipótesis experimental mencionada anteriormente :

Aunque la hipótesis es menor particularmente en su descripción simple (que acepta SQCD) en relación con la Inteligencia General Artificial, delinea de manera crucial que las matemáticas de los supermanifolds son razonablemente aplicables en el Aprendizaje Profundo, impartiendo ese trabajo innovador de Aprendizaje Profundo que tiende a considerar los límites en lo biológico cerebro, al tiempo que subraya que los cerebros biológicos pueden evaluarse de manera óptima mediante operaciones supersimétricas.

Aunque no es un experto en el campo, ser un tipo de diseño ayuda a proporcionar esta respuesta tentadora:

  1. Disponibilidad de cerebros modulares, que se pueden acoplar a varios dispositivos para mejorar su inteligencia artificial, muy similar a los módulos RAM existentes hoy en día para mejorar el sistema ram de la electrónica. La principal diferencia aquí es que, al ser un módulo de inteligencia artificial de aprendizaje profundo, descubrirá lo que el sistema realmente necesita para calcular y en lo que está luchando, y perfeccionará su habilidad para reaccionar / apoyar y proporcionar su influencia capaz de ejercer los resultados deseados por la Madre sistema. Dicho esto, ¡veo que el efecto de activación en el diseño del sistema es una actualización de AI modular! Lo que significa que los sistemas con una IA de nivel base tendrán puertos de datos enchufables en los que con el tiempo pueden proporcionar paquetes de información al “complemento DL AI” que no están dentro de su capacidad base y deben ser empujados al módulo externo. Entonces el sistema base podrá monitorear su propio desempeño; seleccione los problemas que no puede resolver y entregue un complemento modular en un formato, ambos conozcan los resultados esperados y, en todo momento, lidien con una gran variedad de posibles desafíos de cómputo
  2. Refiriéndome al 1 anterior, veo que también sucede lo siguiente: casi todos los humanos con entrenamiento básico y avanzado pueden manejar y resolver problemas complejos de la vida real con experiencia y exposición, de manera similar, las compañías podrán proporcionar módulos Add-On DL AI ”con un subconjunto experiencia en la que entrenan sus módulos para ser buenos. por ejemplo: módulos para robots quirúrgicos especializados en cirugía neuronal, cirugía cardíaca, etc. módulos para la fabricación de robots con experiencia en ensamblaje; en la tienda de pinturas; en fabricación, etc. Módulos para restaurantes especializados en cocina: italiana, japonesa, india, etc.
  3. La arquitectura del sistema y la electrónica, tal como la conocemos, serán completamente redundantes. Casi todos los dispositivos se basarán en una nueva arquitectura que puede aprovechar la IA en sus diversas formas. Lo único que todavía se ve igual podría ser los actuadores de efectos finales reales (motores, mecanismos de movimiento de cilindros, etc.), sensores, bus de transporte de señal (probablemente a niveles de 128 bits), etc.
  4. Los humanos comenzarán a usar sus cerebros para arrebatos más intuitivos y creativos. ¡Todo lo mundano será factible con máquinas, pero aún habrá escasez de personas con capacidades tales como que ahora los campos de juego no son solo arte y diseño, sino todo lo que el hombre puede imaginar para superar los límites! Todos tendrán un trabajo que respaldará este tipo de ecosistema, aquellos que no lo hagan podrán hacer trabajos mundanos para los cuales el uso de máquinas aún sería prohibitivamente costoso / inutilizable.

Mi visión es por 50 años y más allá de hoy. El hombre ya habría establecido hogares en la Luna, Marte y un equipo estaría explorando sistemas estelares lejanos, y a punto de enviar las primeras imágenes de planetas habitables de esas estrellas …

El ancho y la profundidad de una red neuronal, así como las arquitecturas generales y los enfoques para el aprendizaje automático dependen del problema en cuestión. Para diferentes problemas, se pueden necesitar diferentes arquitecturas.

Necesitamos ir más allá de la búsqueda de un paradigma fijo y ver qué funciona mejor en cada caso, combinando diferentes soluciones si eso se adapta al problema. De modo que tal vez “para terminar con” realmente no se aplica.

Una mejor pregunta puede ser ¿qué pasará con el aprendizaje automático cuando cambie la infraestructura tecnológica? Por ejemplo, si tenemos computadoras híbridas con componentes biológicos, neuronas vivas o ADN, ¿qué pasará con el aprendizaje automático? ¿Qué tipos de algoritmos se pueden implementar?

Lo mismo ocurre con la computación cuántica: ¿se utilizará una computadora cuántica para acelerar los cálculos o conducirá a cambios fundamentales en los algoritmos de aprendizaje automático que aprovechan la computación cuántica? Las redes neuronales artificiales cuánticas son capaces de computación más eficiente que las redes neuronales clásicas, pero también abren el camino a nuevos enfoques para el aprendizaje automático y la computación neuronal artificial.

Creo que la próxima gran cosa es el aprendizaje cuántico de máquinas .

Las computadoras cuánticas están creciendo en términos de número de qubits (bits cuánticos). IBM planea construir una computadora cuántica de 50 qubits para fines de este año. Podrá hacer cosas que las computadoras convencionales no pueden hacer. Ese será un cambio dramático en la informática. Los investigadores ya han desarrollado varios algoritmos de aprendizaje automático para computadoras cuánticas. El aprendizaje automático cuántico puede llevar tiempo logarítmico tanto en el número de vectores como en su dimensión, una aceleración exponencial sobre los algoritmos clásicos.

¡Está surgiendo el nuevo mundo cuántico valiente!

Aprendizaje automático cuántico – Wikipedia

La computación cuántica se vuelve más accesible

La radical computadora cuántica de 50 qubits de IBM Q llevará la informática a nuevas fronteras

Para debatir con Yoshua Bengio, de hecho es cuestionable si el tren del aprendizaje profundo nos llevará a la IA a nivel humano. Para que el aprendizaje profundo pueda hacer eso, mi suposición parcial es que se necesita (casi) una cantidad infinita de ejemplos de entrenamiento. Entonces mi humilde respuesta a esta pregunta es la siguiente.

Cuando hayamos terminado con el aprendizaje profundo, comenzaremos a buscar mejores medios para construir IA a nivel humano. Y esto, es la próxima gran cosa.

Es probable que el aprendizaje profundo continúe como un método preferido para algunos problemas, encontrando su nicho en el aprendizaje automático como muchos otros algoritmos en el pasado. Es probable que los métodos como los conjuntos de superaprendizaje para la predicción o el análisis de datos topológicos surjan como soluciones cuando el aprendizaje profundo falla (superaprendizaje para problemas supervisados, análisis de datos topológicos para problemas no supervisados). Probablemente veremos que la geometría juega un papel más central y posiblemente soluciones de álgebra no lineal que reemplacen las soluciones de álgebra lineal a medida que aumenta la potencia de cálculo.

Para ver dos descripciones generales de superaprendices y análisis de datos topológicos, consulte estos:
https://www.slideshare.net/Colle
https://www.slideshare.net/Colle

Primero que nada, no tengo una bola de cristal. En segundo lugar, en lo que a mí respecta, el aprendizaje profundo se realizará cuando alcancemos la IA a nivel humano, y luego es realmente difícil para mí ver más allá. El aprendizaje profundo trajo algunas ideas a las redes neuronales. Se agregarán otros conceptos, a lo largo de los años, para avanzar hacia la IA. Realmente creo que algunas de estas ideas llegaron para quedarse. Sería como preguntar “¿cuál fue la próxima gran novedad en el aprendizaje automático después de que terminamos con la idea de sobreajuste / falta de capacidad y capacidad” que se generalizó solo a fines de los años 80 “? Nunca terminaremos con tales ideas porque son tan útil. Obviamente, este tipo de idea, como la noción (e importancia) de aprender una composición de funciones (profundidad), está aquí para decir. Pero no es suficiente por sí solo. Se necesita hacer mucho más.

El aprendizaje profundo es solo una parte de la IA. Sin embargo, la inteligencia no solo consiste en aprender habilidades. Incluye percepción, memoria, atención, emoción, toma de decisiones, lenguaje, etc. Para crear una IA real cercana a la inteligencia humana, no es suficiente realizar estas funciones. Debería haber algunas interacciones entre estas funciones. Por ejemplo, al dar una decisión (como 0 o 1), se debe usar la información de la memoria.

Creo que la respuesta es breve: aprendizaje no supervisado. Lo que significa que ya no proporciona un modelo de entrenamiento a los clasificadores, pero la red se entrenará a sí misma en función de sus propios sensores e información.