¿Hacia dónde se dirigirá la investigación de aprendizaje automático en los próximos 5 años? ¿Cuáles serán las áreas más emocionantes y prometedoras?

Solo para agregar a la espectacular respuesta de Chomba Bupe:

Realmente espero que también podamos alejarnos del enfoque hiper en métodos de aprendizaje supervisados ​​que solo pueden preformar la interpolación. El aprendizaje profundo, en particular, es menos impresionante cuando considera la cantidad de datos que necesita para alimentarlo para generalizar bien. E incluso entonces, el aprendizaje profundo aún no puede generalizarse fuera del subespacio de los datos de capacitación. Es casi como un método sofisticado de hash cuando lo miras desde esta perspectiva.

Espero ver más investigaciones que analicen los métodos que pueden preformarse bien bajo la deriva covariable y del conjunto de datos (es decir, donde la distribución condicional de la respuesta cambia significativamente con el tiempo). Y espero ver al menos una investigación que tome una grieta en la extrapolación, incluso si todavía hay preguntas epistemológicas sobre si la extrapolación es alguna vez factible.

También espero ver más investigaciones que apliquen el aprendizaje por refuerzo a la sintonización de hiperparámetros y las arquitecturas de redes neuronales. Una cosa que es increíblemente frustrante es que si desea aplicar el aprendizaje profundo a un dominio fuera de los más comunes, como las imágenes, el texto y el habla, a menudo obtendrá malos resultados; los expertos le dirán que es porque no ha encontrado la arquitectura correcta para el problema. Bueno, está bien, pero eso no es mucho más útil que decir que no has aprendido los parámetros correctos, considerando el número literalmente infinito de posibilidades de arquitectura para una red neuronal. Por lo tanto, necesitamos métodos más rápidos e inteligentes para aprender arquitecturas rápidamente para nuevos dominios.

Editar (5 de mayo de 2017):

Nueva investigación sobre el uso del aprendizaje por refuerzo para diseñar arquitecturas CNN óptimas: https://openreview.net/pdf?id=S1…

ML interpretable . Llamamos inteligencia artificial “artificial” a la inteligencia artificial porque medimos la inteligencia artificial según los estándares humanos. ¿Qué tan bien piensa / ve / oye el sistema como un humano?

Ahora somos buenos proyectando señales como audio y video en un espacio latente donde podemos clasificar y agrupar. Todavía no somos buenos para hacer lo contrario: proyectar los espacios latentes codificados por un modelo en una señal que los humanos puedan interpretar. Las Redes Adversarias Generativas (GAN) parecen ser un paso en la dirección correcta, pero llevará años desarrollar esto. Creo que esto es un precursor de los bots: debemos ser capaces de representar lingüísticamente los espacios latentes antes de poder tener conversaciones verdaderamente inteligentes con la IA.

Hay una cosa que odio de la mayoría de los algoritmos actuales de aprendizaje automático (ML), son solo algoritmos de optimización numérica, sí, con algunas modificaciones aquí y allá. Probablemente las redes neuronales aumentadas de memoria se acercan a algo realmente interesante.

Actualmente, ML es básicamente una nueva teoría de optimización con un nuevo nombre elegante. No hay inteligencia, tal vez un poco, allí, no te dejes engañar por artículos, blogs o revistas que comparan DL con el cerebro humano, esos dos no tienen nada en común aparte del hecho de que DL está motivado por teorías de la neurociencia, recuerda Son solo teorías.

Entonces, ¿a dónde se dirige ML en 5 años? Son posibles muchos caminos, piense hoy en día como un nodo a tiempo con un factor de ramificación de muchas, muchas posibilidades. No olvidemos que ML nació del deseo de lograr inteligencia artificial (IA) en primer lugar, que no termina siendo solo otra teoría de optimización sofisticada. Por lo tanto, hay mucho trabajo en tratar de hacer que las máquinas de aprendizaje sean inteligentes. Mi opinión sobre este tema es que la inteligencia requiere una gran memoria para el almacenamiento de datos. Esos hechos necesitan ayudar al proceso de razonamiento y el razonamiento es inteligencia real. Siento que las redes neuronales con memoria aumentada, como las computadoras neuronales diferenciables (DNC) y las máquinas de tensión neural (NTM) son un excelente paso hacia el aprendizaje de máquinas inteligentes.

Creo que el aprendizaje no se trata solo de capturar los patrones en los datos, ya que actualmente se realiza principalmente en ML, el aprendizaje también se trata principalmente de encontrar un proceso / algoritmo para resolver mejor el problema en cuestión. Dado un problema X, actualmente nuestros algoritmos descubrirán una función para asignar ese problema a un nuevo espacio Y y eso es si el problema X se puede lanzar de una manera diferenciable. Pero para futuros algoritmos avanzados, ellos, además de mapear a un nuevo espacio conveniente Y, también podrían aprender un algoritmo Z que los ayude a llegar a alguna solución.

Aprender un algoritmo, como encontrar un algoritmo, que resuelva un problema a partir de ejemplos de entrenamiento es una dirección de investigación muy atractiva. Dado el problema X, los algoritmos deben:

  1. Modele el problema X con representaciones más abstractas de alto nivel como se hace hoy usando el modelado por capas.
  2. Encuentra datos relevantes de los datos de entrenamiento.
  3. Almacene los hechos en una gran unidad de memoria accesible.
  4. Aprenda un algoritmo Z que mejor haga uso de los hechos en la memoria.

Por ejemplo, dadas las tablas de multiplicar y algunos otros conceptos matemáticos, el sistema debería poder aprender algoritmos a partir de ejemplos y no solo asignar datos a otro espacio vectorial. Esta es la verdadera inteligencia y solo las NN aumentadas de memoria tienen una oportunidad de resolver esta.

Entonces para recapitular:

  1. La inteligencia se basa en una gran memoria de fácil acceso (memorias a corto y largo plazo).
  2. Esto hace que los NN aumentados de memoria sean una dirección de investigación muy atractiva que creo que se volverá muy interesante en los próximos 5 años más o menos, pero necesitamos avances en esta área. DeepMind ya está realizando trabajos de investigación interesantes con los denominados DNC, pero los DNC no son escalables y son muy exigentes desde el punto de vista informático, ¿tal vez ese es el precio a pagar por la inteligencia o hay NN aumentadas de memoria más eficientes que esperan ser descubiertas? Vamos a averiguar.
  3. Alejémonos de la teoría de optimización renombrada, bueno, al menos llamémosla teoría de optimización. Los novatos se sorprenderán cuando se encuentren haciendo un ajuste de curva elegante en ML. Sí, DL es genial y todo, pero aún requiere objetivos diferenciables, esto es ideal para problemas que se pueden lanzar de esa manera, como la regresión logística multinomial con una capa de salida softmax y una función de pérdida de entropía cruzada. Suena elegante, ¿verdad? pero sigue siendo la teoría de la optimización. Ahora considere el razonamiento, ¿cuál es el objetivo? ¿Cómo aprende una máquina a razonar? ¿Cuál es la pérdida? Piénselo, los problemas reales de la IA están lejos de basarse en el proceso de optimización como el aprendizaje. Necesitamos nuevos conceptos en el aprendizaje automático para entrar en un nuevo mundo de posibilidades.

Dicho esto, ML como un campo está evolucionando rápidamente, todo lo que se necesita es solo un avance y todos cambiarán de dirección. No es como estos campos establecidos como la teoría de control, las matemáticas o la física, ML es un paisaje muy joven y cambiante con tantas posibles trayectorias futuras, pero siento que la memoria comenzará a jugar un papel crucial en los próximos años para acercarnos para construir algoritmos reales de aprendizaje de propósito general.

Espero que esto ayude.

El mercado global de aprendizaje automático como servicio (MLaaS) está aumentando rápidamente debido principalmente a la revolución de Internet. El proceso de conectar el mundo prácticamente ha generado una gran cantidad de datos que está impulsando la adopción de soluciones de aprendizaje automático. Las soluciones de aprendizaje automático como servicio también se adoptan en los sectores verticales de la industria para mejorar la capacidad de toma de decisiones de las máquinas.

Según Research, el mercado global de aprendizaje automático como un servicio ofreció una oportunidad de US $ 1.07 mil millones en 2016. Al expandirse a una tasa de crecimiento anual fenomenal de 38.40% entre 2017 y 2025, se espera que el mercado alcance un valor de US $ 19.86 mil millones para el final de 2025.

Descargue el folleto para saber más información sobre las oportunidades y oportunidades de investigación sobre aprendizaje automático en el futuro

Fabricación, venta minorista, telecomunicaciones, salud y ciencias de la vida, BFSI y otros son los segmentos en los que el mercado global de aprendizaje automático como servicio se clasifica en función del uso final. De ellos, el segmento de la salud y las ciencias de la vida es el principal contribuyente al mercado, principalmente debido a la creciente necesidad de aprendizaje automático en el sector para integrar datos estructurados y no estructurados. Los datos generados son principalmente de registros de salud electrónicos (EHR), datos genómicos y de reclamos.

Norteamérica lideró entre otros segmentos regionales en 2016 contribuyendo con US $ 362,7 mil millones al mercado general. Se espera que la región mantenga su posición dominante durante el período de pronóstico respaldado por la creciente demanda de Internet de las cosas (IoT) y la rápida integración del aprendizaje automático como un servicio con big data y otras tecnologías más nuevas.

Creo que el aprendizaje de refuerzo (RL) es hacia donde se dirige.

Hasta ahora, la gran mayoría de la investigación y las aplicaciones de aprendizaje automático en la industria se han centrado en el aprendizaje supervisado con un poco de agrupación en la mezcla.

El aprendizaje supervisado, como señala Chomba Bupe, es solo un cambio de nombre de la optimización numérica. Los mejores algoritmos de aprendizaje supervisado de hoy en día son meras sofisticaciones de las mismas técnicas que los mineros de datos y analistas de inteligencia empresarial han estado utilizando desde los años 90. Estos algoritmos básicamente imitan patrones observados en datos históricos. No pueden descubrir patrones totalmente nuevos.

Aquí es donde entra en juego el aprendizaje de refuerzo. Los agentes de RL pueden lograr resultados realmente sorprendentes explorando entornos y explotándolos para optimizar alguna función objetiva. Es la exploración lo que distingue a RL del aprendizaje supervisado. Un algoritmo RL no necesita un conjunto de datos que diga “alguien hizo esto y logró este resultado”. El agente simplemente deambula por un entorno y gradualmente comienza a aprender mejores y mejores estrategias para optimizar lo que le diga.

Casualmente, esto es similar a cómo aprenden los animales. Somos recompensados ​​por el buen comportamiento y castigados por el mal. Creo que el aprendizaje de refuerzo profundo es actualmente lo más cercano que estamos a cualquier forma de inteligencia artificial “real”. Sospecho que veremos algunos avances alucinantes en esta área en un futuro no muy lejano.

Hay algunos jugadores que han producido una investigación muy interesante en esta área. DeepMind y OpenAI vienen a la mente. Lo que este último está haciendo con su OpenAI Gym / Universe y la democratización de la IA es súper emocionante.

El desarrollo de RLM ( Ryskamp Learning Machine ) por useAIble ™ es un gran avance en la industria del aprendizaje automático. Este nuevo aprendizaje automático se centra en la lógica sobre la solución matemática y el procesamiento de información específica que se combina con la categorización y el reconocimiento de patrones, todo en un sistema de aprendizaje automático.

Puede leer acerca de los 7 avances de aprendizaje automático [1] introducidos por RLM. Este motor de aprendizaje automático había logrado lo siguiente.

1. Cálculo exponencialmente más rápido.

2. Categorización, reconocimiento de patrones y memoria específica en el mismo algoritmo.

3. Precisión sustancialmente mayor

4. Resuelve una variedad más amplia de conjuntos de problemas que el aprendizaje automático tradicional.

5. Utiliza una fracción de hardware de CPU / GPU.

6. Realiza un seguimiento nativo de cada evento para facilitar el diagnóstico.

7. La configuración es simple.

El código también es de código abierto para uso educativo. puedes intentar obtener el código en github.

Notas al pie

[1] useAIble ™

No olvidemos que la ciencia y la tecnología no son milagros. Es un proceso largo, paso a paso.

El reconocimiento óptico de caracteres fue un gran paso adelante en las últimas décadas. Estamos cosechando sus frutos en ATM y otros sistemas.

Hasta hace poco, buscamos en Google usando palabras clave. Dentro de unos años, deberíamos estar en una buena (y confiable) posición para google mediante el uso de keymages. Será un gran paso adelante.

Otro gran paso adelante será un motor de validación, basado en big data, procesamiento de lenguaje natural y aprendizaje automático.

A los usuarios finales no les importa si estos métodos son interpretativos y se basan en cierto método. Lo que cuenta es la fiabilidad.

Una de las áreas más importantes del aprendizaje automático en los próximos 5 años podría ser la informática suave. Ambos se basan más o menos en la inteligencia o el aprendizaje después de una serie de cálculos. La informática suave tiene la capacidad de resolver problemas importantes con la facilidad proporcionada por ningún otro sujeto. Trata soluciones heurísticas y da una solución, que es estocástica. Por lo tanto, el aprendizaje automático será de gran ayuda, combinado con la informática suave.

Creo que las GAN son más emocionantes y, especialmente cuando se combinan con el aprendizaje por refuerzo, las GAN serán las áreas más prometedoras.

Quiero decir, por sí mismo, el aprendizaje por refuerzo ya es bastante emocionante, pero las limitaciones del entorno para el aprendizaje son constantes. ahora combina eso con los GAN. Tendrá una máquina que está aprendiendo a lograr un en un entorno que en sí mismo está evolucionando para alcanzar cierto objetivo. Por lo tanto, convergemos en el equilibrio de Nash para el sistema.