¿Qué sigue después del aprendizaje profundo?

Lo primero, y lo más importante, darse cuenta sobre el aprendizaje profundo es que no es un tema “profundo”, lo que significa que es un tema muy “superficial” con casi ninguna teoría subyacente. No hay garantías de convergencia (ya que, después de todo, estamos hablando de optimización no lineal en espacios de alta dimensión), y no hay garantías de rendimiento de ningún tipo (por ejemplo, en comparación con lo que obtienes con otras áreas del aprendizaje automático, como los métodos de kernel, dispersos modelos lineales, etc.). Es esencialmente como trabajar la madera sin física. Si mezclas este tipo de esmalte con ese tipo de madera, obtienes este tipo de efecto. La razón por la que invariablemente tiene que haber un futuro más allá del aprendizaje profundo es que no se puede construir una ciencia sólida de ingeniería del aprendizaje automático con ladrillos hechos de heno. Como dijo una vez Vladimir Vapnik, “Lo más práctico del mundo es una buena teoría”, y eso actualmente no está disponible en el aprendizaje profundo. Si el aprendizaje profundo es la mejor solución que puede hacer la comunidad de aprendizaje automático, como miembro portador de la tarjeta de esta comunidad de investigación durante más de 30 años, ¡debo decir que estamos en serios problemas!

Solo tomemos un ejemplo, la ira actual sobre los modelos de confrontación generativa o GAN. Hay más de 500 documentos sobre este tema, y ​​casi 3 docenas de variantes de GAN con más apareciendo cada semana. Sin embargo, apenas hay documentos que muestren 1) si las GAN convergerán de manera confiable cuando se capacita (¡las GAN originales no lo hacen!) 2) cuál es la complejidad de la muestra de las GAN (nadie lo sabe) 3) lo que las GAN pueden y no pueden hacer. Hasta donde yo sé, hay 1–2 artículos que intentan dar una teoría de las GAN, un artículo particularmente bueno de Sanjeev Arora y sus colegas, que es en gran medida un resultado negativo. Muestra que el modelo GAN original no converge, pero que un modelo de generador múltiple / discriminador múltiple modificado podría converger, en un sentido muy débil. Sin embargo, esto no ha disminuido la emoción sobre este modelo, ni mucho menos.

También hay una sensación colectiva de pérdida de la realidad cuando la gente se entusiasma con modelos como las GAN. Estos modelos tomaron miles y miles de iteraciones para converger (cuando lo hacen, y a menudo no lo hacen), y cada iteración requiere muchos pases a través de los datos. Al final del día, quemas millones de ciclos de CPU y te preguntas si después de quemar toda esa energía: ¿vale la pena el juego? ¿A dónde nos lleva toda esta energía? ¿Nos está llevando a una teoría sólida basada en la ciencia de cómo construir una teoría del aprendizaje no supervisado? La gran mayoría de los documentos de GAN son en gran medida empíricos, y muestran imágenes bonitas de lo que puede hacer una variante de GAN, pero las métricas a menudo son inexistentes o algo artificiales.

Por lo tanto, muchos de nosotros en el campo realmente esperamos una vida más allá del aprendizaje profundo, donde no solo podamos construir impresionantes sistemas de aprendizaje con fundamento empírico, sino que también tengamos una teoría sólida subyacente.

Si desea un ejemplo de una ciencia verdaderamente “profunda”, no busque más que el premio Nobel de este año por el diseño de detectores LIGO, que completa un esfuerzo de 100 años para detectar ondas gravitacionales de la teoría de la relatividad general de Einstein. Ahora podemos detectar colisiones entre agujeros negros a 2 mil millones de años luz de distancia liberando más energía en una colisión que toda la energía de todas las estrellas en el universo observable. Y hay una cantidad muy sustancial de matemática no trivial que entró en la construcción de los detectores LIGO y en avances en la teoría de la relatividad general.

Así es como debería ser una verdadera teoría del aprendizaje “profundo”. Estoy seguro de que algún día, el aprendizaje automático llegará allí, pero tomará muchos años de esfuerzo, y los físicos nos proporcionan una inspiración de lo que se puede lograr.

Primero, desde el punto de vista de la ingeniería, uno debe ir más allá de los paradigmas o modas y trabajar con lo que funciona para cada problema. Considerar el aprendizaje automático en términos de lo que puede venir después del aprendizaje profundo todavía está en línea con una tendencia centrada en una forma “pasajera” de mirar el aprendizaje automático, en lugar de un enfoque centrado en el problema.

Cuando se trata del aprendizaje automático, desde el punto de vista de la ingeniería, uno debe comenzar mirando el problema por sí mismo, entendiendo la naturaleza del problema y construyendo la estructura cognitiva que mejor se adapte al problema, la arquitectura de aprendizaje es solo una parte de esta estructura, es una parte central, pero debemos comenzar a ver el sistema de inteligencia artificial como un todo cognitivo, es decir, un sistema cognitivo integrado que comienza con un aparato perceptivo artificial donde se realizan las transformaciones de precruzamiento de datos.

La evaluación previa de los datos a veces (no siempre) se minimiza en la forma en que se presentan los sistemas de aprendizaje artificial, con el énfasis puesto principalmente en el algoritmo de aprendizaje, pero necesitamos reflexionar sobre el problema y el objetivo que define el propósito de la IA para poder para construir el aparato perceptivo más la arquitectura de aprendizaje, de modo que el aparato y la arquitectura de aprendizaje funcionen de manera efectiva con respecto a la funcionalidad y utilidad de la IA, medida en términos de cuán bien logra su objetivo en el contexto del problema que estamos abordando.

En segundo lugar, si asumimos un punto de vista fundamental de la ciencia con respecto al aprendizaje automático, estamos tratando con una investigación fundamental sobre cognición y aprendizaje, dentro de un contexto interdisciplinario de ciencias de la computación y ciencias cognitivas, lo que significa que debemos comenzar haciendo preguntas como: ¿qué es la cognición? ? ¿Qué es aprender? ¿Qué papel juega el aprendizaje dentro de la cognición de un sistema? ¿Cómo aprenden los sistemas? ¿Cuál es la relación entre aprendizaje y adaptación? ¿Cuál es la relación entre el sustrato computacional y los algoritmos de aprendizaje automático que se pueden desarrollar?

Por ejemplo, las redes neuronales artificiales cuánticas recurrentes abiertas pueden almacenar de manera robusta información en la dinámica neuronal como una alternativa a un cálculo de estado final fijo, esto significa que es posible que tengamos que mirar el corresponsal artificial de un “patrón de ondas cerebrales” en lugar del estado final para abordar la dinámica computacional de estas redes. ¿Qué tipos de algoritmos se pueden diseñar para aprender en términos de analogías de ondas cerebrales en lugar de enfoques de estado final?

Además, ¿qué tipos de nuevos algoritmos de aprendizaje automático se pueden implementar utilizando tecnologías blockchain? Por ejemplo, convertir una matriz computacional como Ethereum en un sistema de aprendizaje artificial y usarla para realizar tareas.

El sustrato es importante no solo en términos de potencia computacional, que también impulsa la innovación algorítmica, sino también en términos de la naturaleza de los cálculos que se pueden realizar utilizando ese sustrato. Estos cálculos deben seguir las reglas del sustrato, y estas reglas pueden proporcionar ideas para nuevos marcos de aprendizaje automático, si son útiles, por supuesto, ya que cuando se trata de tecnología uno nunca debe olvidar que la eficacia en la resolución de problemas es el juez final.

No creo que el aprendizaje profundo vaya a ser reemplazado pronto, acaba de llegar y todavía está madurando. Las redes neuronales se pueden modificar de muchas maneras: redes neuronales convolucionales, RNN.

En la investigación actual, las Redes Neurales son capaces de hacer predicciones, creatividad: dibujar imágenes, componer poemas. Evolucionarían con el tiempo para ser más precisos. La próxima característica como humano debería ser exhibir emociones.

La comprensión simple y la exhibición de las emociones humanas es simple: modulación de voz, etc. Algo que realmente puede hacer que una máquina sienta emociones humanas y las maneje con esas emociones debería ser el próximo hito para la IA. Parece una perspectiva peligrosa.

Queda mucho por descubrir con el aprendizaje profundo. Nuestra comprensión del espacio multidimensional es todavía muy limitada. Al principio, nos preocupamos por los óptimos locales solo para darnos cuenta de que el concepto de sillines representa mejor parte de lo que están aprendiendo las redes profundas.

Esto implica que un área rica para el descubrimiento es el espacio multidimensional. Mejorar nuestra comprensión de cómo construir e interpretar un espacio multidimensional podría conducir a nuevas técnicas y comportamientos más poderosos. Puedo imaginar técnicas de inferencia que representen mejor las señales contextuales integradas en un espacio multidimensional entrenado.

En general, las mejoras en las representaciones contextuales en ML son importantes. La falta de comprensión del contexto es una de las principales fuentes de error en ML hoy en día, sobre todo cuando se trabaja con lenguaje. Los LSTM y otras técnicas están avanzando en esta dirección. Creo que habrá descubrimientos de nuevas formas de inyectar contexto en los modelos de ML.

Hay un largo camino por recorrer desde aquí. El aprendizaje profundo no se basa en una teoría elegante. Solo implica una serie de cálculos de gradiente realizados una y otra vez hasta llegar a un punto de convergencia satisfactorio. Es simplemente porque el aprendizaje profundo nos da una tasa de error muy baja para problemas como la visión por computadora, creemos que está haciendo un gran trabajo. No está bien estar contento con esto. Además, como Sridhar Mahadevan señaló muy acertadamente, es una gran pérdida de recursos de una máquina. Como estudiante de Ciencias de la Computación y como persona que trabaja en la industria, sé lo importante que es escribir código optimizado y eficiente que haga la misma tarea pero sin afectar por completo los recursos como la memoria. Deep Learning no logra eso. Las nuevas tareas de aprendizaje se vuelven difíciles en esta situación.

Un modelo de un sistema verdaderamente inteligente no debería tomar terabytes de datos para entrenar. Sería capaz de identificar patrones con una alta precisión incluso con una menor cantidad de ejemplos de entrenamiento. Un sistema verdaderamente inteligente debe realizar una gran cantidad de optimización de recursos para lograr los objetivos del aprendizaje automático pero con eficiencia. La eficiencia es elegancia. La eficiencia es el arte.

Honestamente, a veces siento que hemos comenzado a vivir en la era de Charles Babbage cuando inventó el motor de diferencia y solía ser una tarea difícil poder entrenar máquinas para realizar cálculos mejor, tal como lo hacemos hoy con los modelos de aprendizaje profundo. Necesitamos evolucionar más allá de esta fase tan pronto como podamos. Espero que los investigadores de aprendizaje automático se den cuenta de esto y trabajen hacia el objetivo de la IA, teniendo esto en cuenta.

Autoencoders.

Imagine que tiene una red neuronal en un entorno de aprendizaje supervisado. ¿Qué sucede si le pide a la NN que conozca su opinión? En este caso, usará como salida una copia de la entrada.

¿Por qué es útil esto? El NN aprenderá una representación intermedia de su entrada (codificador) y también aprenderá cómo traducir esa representación interna en los datos originales (decodificador).

Una aplicación interesante para eso fue un audio hecho con la voz de Obama. Obama nunca dijo eso, fue generado por computadora por una IA que aprendió su voz.

No hay siguiente después de Deep Learning. Es el futuro y seguirá expandiéndose a medida que progresemos más y más. Cambiará el mundo en el que vivimos.

Suscríbase a este increíble canal

AI Journal

Cubre todo, desde redes neuronales convolucionales, redes neuronales recurrentes, redes adversas generativas hasta marcos de aprendizaje profundo Tensorflow, keras, Pytorch. También puede solicitar un video. Todo se explica de manera simple.

Espero que esto ayude.

Notación 1 – Aprendizaje múltiple : [matemáticas] \ phi \ big (x, \ theta \ big) ^ {\ top} w [/ matemáticas] (Bengio et al)

Notación 2: Aprendizaje supermanifold : [matemáticas] \ phi \ big (x; \ theta, \ bar {{\ theta}} \ big) ^ {\ top} w [/ math] (Jordan Bennett)

Si bien el aprendizaje profundo tradicional puede involucrar un aprendizaje múltiple, mi trabajo se refiere al aprendizaje supermanifold, como se ve brevemente en las diferencias de notación anteriores.

(Consulte la fuente del fragmento en la respuesta a continuación)

Vea una respuesta intrigante a continuación, sobre Supermatemáticas y Aprendizaje profundo :

La respuesta de Jordan Bennett a ¿Cuál es la próxima gran cosa en el aprendizaje automático después de que hayamos terminado con el aprendizaje profundo?

El aprendizaje profundo es un área de algoritmos de aprendizaje automático que tiene varias capas para la extracción y transformación de características, cada capa sucesiva utiliza la salida de la capa anterior como entrada. El aprendizaje profundo incluye el aprendizaje de una representación de datos estructurada y no estructurada profunda y permite construir una solución optimizada desde un algoritmo para resolver problemas de aprendizaje automático.

El aprendizaje profundo es el campo de más rápido crecimiento en el aprendizaje automático que utiliza redes neuronales profundas para abstraer datos como imágenes, sonido y texto.

El aprendizaje automático es el área más emergente y los campos de rápido crecimiento, y el aprendizaje profundo representa su verdadera ventaja. Esta es una mejor tecnología inspirada en el funcionamiento del cerebro humano. Las redes de neuronas artificiales analizan una gran cantidad de conjuntos de datos para descubrir automáticamente patrones subyacentes, sin intervención humana.

Aprendizaje profundo en el procesamiento del lenguaje natural

Una red neuronal artificial tiene varias capas de neuronas apiladas, generalmente aceleradas en la computación mediante GPU. Se utilizan en el reconocimiento de voz y el procesamiento del lenguaje natural, superando los dominios anteriores, como el modelado de idiomas, la traducción, el reconocimiento de voz.

Lee mas…

Hay muchas cosas en el aprendizaje profundo en sí, como el aprendizaje de extremo a extremo y redes mucho más complejas como las redes de autopistas, las redes de enlace y mucho más, pero para decir en conjunto, el aprendizaje profundo (redes neuronales) será reemplazado por el modelado cognitivo en que la ciencia neuronal es una de las partes entre psicología, filosofía, antropología, lingüística y IA general.

More Interesting

Como principiante, ¿cómo debo estudiar el aprendizaje profundo?

¿Cuáles son algunas habilidades matemáticas altamente relevantes que se requieren si quiero comenzar a investigar en algoritmos de Machine Learning?

¿Cómo comienza un principiante a aprender el aprendizaje automático?

¿Qué debería aprender primero para el aprendizaje automático y la autoeducación: cálculo, probabilidad, estadística o álgebra lineal?

¿Qué es la ganancia de información en el aprendizaje automático?

¿Por qué estudiar el procesamiento del lenguaje natural?

¿Qué significa realmente la matriz de covarianza de la estimación de máxima verosimilitud de la distribución normal multivariante?

Cómo obtener la distribución de probabilidad de clases con píxeles que son 0 o 255

¿Cuáles son algunos de los problemas de aprendizaje automático (nivel introductorio) que un estudiante de economía puede modelar con los datos disponibles para una tesis de licenciatura?

¿Cuáles son algunas implementaciones geniales de aprendizaje automático?

¿Cuál es la entrada para un clasificador Naive Bayes?

¿Debo usar juicios de relevancia explícitos o comentarios de clics implícitos para recopilar datos de capacitación para construir un modelo de Aprendizaje para clasificar?

¿Qué modelo / algoritmo de ML utilizo?

Cómo implementar Inteligencia Artificial en un Proyecto Arduino

Cómo probar la profundidad del fondo del procesamiento del lenguaje natural de alguien en una entrevista