¿Cuáles fueron los 10 problemas principales en Machine Learning para 2013?

1. Predicción de abandono : la predicción de abandono es uno de los casos de uso más populares para las personas que desean aprovechar el aprendizaje automático. Tiene un gran valor comercial y beneficios asociados especialmente en industrias como las telecomunicaciones y la banca. Varios desafíos, como la naturaleza sesgada del conjunto de datos disponible y la capacidad de decidir qué modelos usar van a ser objeto de mucho debate.

2. Análisis de sentimientos : actualmente se toman muchas decisiones en opinión de otros. Compramos un producto más porque ha recibido una opinión positiva y visitamos un hotel muy probablemente porque obtuvo la mejor calificación en línea. El análisis de sentimientos tiene sus propios desafíos, como qué tan granular se puede determinar, qué tan subjetivo es el sentimiento, etc., y por lo tanto, el análisis de sentimientos será un buen lugar para atacar el aprendizaje automático.

3. Verdad y veracidad : se dice mucho en línea en estos días y es difícil determinar qué es verdad y qué es falso. Tenemos bots lo suficientemente inteligentes como para publicar contenido como seres humanos y hay aspectos sociales asociados a las calificaciones de varias entidades en línea. Siento que el aprendizaje automático se aprovechará como un gran desafío para determinar la veracidad / verdad de la información en línea.

4. Recomendaciones : hay tantas opciones disponibles en línea que cada vez es más difícil elegir un libro, un restaurante o incluso un producto simple. La capacidad de hacer recomendaciones inteligentes basadas en el contexto del usuario y no solo en función de las preferencias de la multitud será un gran desafío porque es un gran acuerdo para comprender el contexto del usuario.

5. Publicidad en línea : hay mucho trabajo y muchas nuevas empresas en el espacio de los anuncios inteligentes en línea, pero para poder enviar la publicidad correcta en el momento correcto de la manera correcta para el usuario necesita mucha comprensión de la cuándo apuntar a un cliente en particular. El aprendizaje automático exhibe un gran desafío en este espacio en mi opinión para determinar el comportamiento del usuario en línea para impulsar la publicidad correcta al instante cuando el usuario realmente lo necesita.

6. Agregación de noticias: se generan muchas noticias a nuestro alrededor desde diferentes lugares sobre una variedad de temas. Sin embargo, todos tenemos una sed constante de consumir todas las noticias relevantes para nosotros tanto como sea posible. ¿Cómo vamos a agregar noticias según la preferencia del usuario? ¿Su gusto varía con el tiempo? ¿Cómo aprendemos esta variación? Todo esto será un desafío para el aprendizaje automático e implica mucho dar sentido a las noticias y artículos.

7. Escalabilidad : los datos se expanden constantemente en variedad, velocidad y volúmenes. ¿Se pueden aplicar los algoritmos tradicionales de aprendizaje automático que se desarrollaron hace una década a Big Data? Creo que todos se someterán a algún tipo de renovación para poder operar con datos a gran escala. ¿Pueden los SVM entrenar más rápido? ¿Se puede hacer paralelo? Este será un buen problema para enfocarse con el aumento de los grandes datos.

8. Búsqueda / descubrimiento de contenido : hay millones de personas en todo el mundo en varias redes sociales y dentro de la empresa. ¿Cómo puede descubrir personas que comparten intereses similares a los suyos y qué parámetros considerará para medir esta similitud? ¿Cómo medimos la similitud y podemos cuantificar esto? Creo que este es un buen problema para el aprendizaje automático, donde enfrentaremos el desafío de tratar de encontrar la aguja en un pajar.

9. Aprendizaje inteligente: por ejemplo, todavía es difícil identificar un comportamiento en una secuencia de video y se ha investigado mucho en este espacio. En mi opinión, con los algoritmos de aprendizaje de última generación, creo que uno de los principales problemas es permitir que las máquinas puedan ver, escuchar y reconocer como lo hace el cerebro humano. Esto significa que un buen problema sería aprovechar los algoritmos de aprendizaje automático para utilizar diferentes modos de aprendizaje para lograr una tarea en particular, ya sea reconocimiento o algo similar.

10. Aprendizaje automático para la medicina : creo que este es probablemente el problema de aprendizaje automático más interesante para 2013 y el futuro. Hay tantas enfermedades que necesitan nuestra atención y mucho tiempo humano dedicado a la búsqueda de su cura mediante el análisis de muchos síntomas. Sin embargo, dos pacientes con problemas de salud similares reciben diferentes tipos de tratamiento y eventualmente diferentes grados de cura. ¿Podemos utilizar el aprendizaje automático para comprender cómo se siente un paciente en un momento determinado y recomendar el tratamiento adecuado para él? Siento que esto cambiará la forma en que vamos a vivir y ayudará a los médicos a descubrir muchas nuevas metodologías médicas.

La respuesta de Shane Lewin hace un punto crucial sobre la recopilación de grandes cantidades de buenos datos. He sido testigo de ese problema de primera mano en LinkedIn mientras trabajaba en grupos que te pueden gustar y en empresas que quizás quieras seguir.

Más allá de eso, creo que Andrew Ng (Profesor de Aprendizaje Automático en Stanford) tiene algunas buenas respuestas sobre cuáles son los problemas de hoy y lo que ya se ha hecho para comenzar a resolver estos problemas (su presentación explica cómo podemos comenzar a abordar el noveno punto de Abhishek Shivkumar, Aprendizaje inteligente, una realidad hoy).
Video de presentación NIPS 2012 de Andrew Ng (44 minutos): Aprendizaje automático e IA a través de simulaciones cerebrales
Diapositivas: http://www.cs.stanford.edu/~ang/

Resumen de la presentación de Ng:

2001: El rendimiento es menos sobre el modelo específico utilizado y más sobre la cantidad de datos. Los modelos entrenados con la mayor cantidad de datos ganan en general.

2010: una vez que se utilizan suficientes datos, Ng hace una observación similar sobre la cantidad de características utilizadas en modelos no supervisados: el rendimiento es menos sobre el modelo no supervisado utilizado y más sobre la cantidad de parámetros capacitados. El modelo no supervisado entrenado con la mayor cantidad de características gana (nuevamente, siempre que tenga suficientes datos, por supuesto).

Hoy: el entrenamiento de grandes redes neuronales profundas a escala es posible. Actualmente, Google usa estos enormes modelos para impulsar la transcripción de voz de Android, la identificación del número de casa de Google Street View, etc. Los algoritmos que Andrew Ng y otros en Google usaron para entrenar estos enormes modelos a escala fueron: Descenso de gradiente distribuido asincrónico y L-BFGS. En particular, estos métodos numéricos están diseñados para funcionar en paralelo. Permitieron entrenar modelos enormes en grupos de decenas de miles de computadoras, evitando así la necesidad de tener todos los parámetros en la memoria de una computadora. Ahora que Google ha desestimado estos métodos, muchos otros también podrán comenzar a resolver este gran problema de ajuste de modelos.

Próximos 10-15 años: el surgimiento de modelos sin supervisión. El año pasado, se entrenó un modelo RICA apilado (como codificación dispersa, análisis de componentes independientes o codificadores automáticos) de 1.15 mil millones de parámetros en 10 millones de imágenes de 200 × 200. El modelo aprendió a reconocer caras, gatos, etc. por sí mismo, sin ningún dato etiquetado . Los resultados fueron los siguientes: una suposición aleatoria le dio 0.005%, el estado de la técnica anterior le dio 9.5%, y este modelo RICA apilado con 1.15 mil millones de parámetros le dio 21.3%. Mejorar estos modelos apunta a enormes problemas nuevos que deben resolverse.

El último punto a largo plazo de Ng es que con el progreso actual del poder computacional, los modelos de datos + superarán a la mayoría del ingenio humano a largo plazo.

(Wiki de Ng: Página principal – Ufldl)

Después de haber trabajado en ML durante algún tiempo, diría que las mayores mejoras vendrán del lado de los datos (en lugar del modelo). Encontrar una manera de generar grandes cantidades de datos a escala; limpieza de datos de capacitación y clasificación / calificación de jueces de fuentes múltiples; actualización automática de datos / algoritmos de actualización; y similares. Para cualquiera de los problemas difíciles, la diferencia entre un modelo de regresión estándar y un modelo de última generación es trivial en comparación con la diferencia que pueden proporcionar los datos de alta calidad.

El crowdsourcing es barato y viene en volumen, pero la calidad es inestable. Por otro lado, fuera de los Googles y Microsofts del mundo, muy pocas personas pueden pagar datos de alta calidad a escala. Es un punto de dolor que necesita innovación.

1. Aprendizaje profundo con redes neuronales (la cualidad más atractiva de estas técnicas es que pueden funcionar bien sin recursos externos diseñados a mano o ingeniería de características que requiere mucho tiempo)

2. Aprendizaje activo (especialmente dado el poder de la web y los datos sociales, los sistemas de aprendizaje automático deben ser inteligentes sobre la búsqueda activa de datos para mejorar las deficiencias del modelo)

3. Aprendizaje en línea (la idea es tan pronto como se hace una predicción, la predicción se valida y el modelo mejora)

4. Aprendizaje automático para el reconocimiento de gestos (ser capaz de reconocer los gestos con las manos, los movimientos oculares, como el informe minoritario serán los impulsores clave de la próxima revolución en HCI, especialmente en el mundo de los nuevos dispositivos como Google Glasses y televisores inteligentes)

  • Invención estadística predicada
  • Generalizando a través de dominios
  • Aprendiendo muchos niveles de estructura
  • Combinación profunda de aprendizaje e inferencia
  • Aprendiendo a mapear entre representaciones
  • Predicción estructurada con inferencia intratable
  • Aprendizaje de refuerzo con tiempo estructurado
  • Expansión de SRL a IA relacional estadística
  • Aprendiendo a depurar programas

Para más detalles: Página sobre Washington

Los científicos son exitosos al ayudar a las personas ciegas a aprender a “ver” imágenes mediante el análisis y el aprendizaje del sonido. Creo que el aprendizaje automático sería útil si pudiéramos integrarlo aquí. Hacer que la máquina aprenda audios y emita algunas señales para el cerebro que simulan la imagen correspondiente al audio.

Como si alguien dijera manzana, una persona ciega ‘vería’ una manzana. Voila !!!

  • Redes neuronales recurrentes
  • Métodos de regularización
  • aprendizaje de tiro cero
  • Aprendizaje sin supervisión
  • Métodos de aprendizaje de visión por computadora y núcleos integrados
  • Modelos gráficos probabilísticos para clasificación especialmente CRF

Estoy seguro de que los problemas mencionados por otros son interesantes, algunos notorios, y valen la pena de cualquier cantidad de horas intelectuales dedicadas a ellos.

Dado el aumento de las redes sociales en línea en los últimos tiempos, su uso futuro previsto para abordar varios problemas, por ejemplo, Google Flu Trends, creo que modelar los intereses de los usuarios sería lo más importante de 2013. Alex Smola resume muy bien el problema y sus aplicaciones. :

En aplicaciones que van desde el filtrado colaborativo hasta la publicidad, es importante estimar el interés del usuario. Esto se puede lograr modelando cómo interactúan con un sitio, capturando cómo los usuarios seleccionan entre los conjuntos de elementos recomendados

Primeros pasos hacia la construcción de un robot humanoide, aunque esto puede sonar muy aspirante, el sistema NELL de CMU ya ha comenzado a hacer un poco, consulte la Universidad Carnegie Mellon 🙂

La investigación futura será sobre el aprendizaje a gran escala. Esto implicará soluciones híbridas basadas en almacenamiento en la nube y motores de transmisión en tiempo real. Hace unos 10 años, la disponibilidad de datos era el factor limitante, pero ahora la disponibilidad de algoritmos optimizados y arquitecturas escalables están demostrando ser un factor limitante. Una solución híbrida basada en nuevas arquitecturas y técnicas de combinación con análisis de datos estadísticos, informática y aprendizaje automático formará la base de la mayoría de los esfuerzos de investigación en los próximos años.

More Interesting

¿Por qué los diseñadores o los PM deben aprender sobre el aprendizaje automático?

¿Es posible usar la red neuronal para predecir múltiples valores respetando ciertas condiciones?

Cómo saber qué algoritmo usar y cuándo

¿Cuál es una explicación intuitiva del método de optimización llamado Hessian-free Optimizer (HF) para redes neuronales?

¿Es posible o valioso obtener otro doctorado en Machine Learning (Deep Learning) de una de las 50 mejores universidades de los Estados Unidos?

¿Podría la renormalización de lotes reemplazar la normalización de lotes virtual en las GAN?

¿Qué significa decir: "En la geometría de la información, el paso E y el paso M se interpretan como proyecciones bajo dos conexiones afines"?

¿Cuánto tiempo debo pasar aprendiendo Python antes de pasar a otros aspectos de la ciencia de datos (análisis práctico, matemáticas, etc.)?

Como principiante en Deep Learning hoy, ¿qué marco debo usar?

¿Qué IIT en India tiene el mejor programa de CS para el aprendizaje automático?

¿Qué ofrecen los chips Loihi de Intel con 'autoaprendizaje', 'núcleos neuromórficos' y 'cómputo de aumento asíncrono'?

Visión por computadora: ¿cómo sé qué vector de características en un vector combinado es más confiable?

¿Qué desafíos interesantes existen para los desarrolladores / programadores que se pueden lograr en unos meses?

¿Puedo crear un programa de aprendizaje automático en otro idioma que no sea un flujo de tensor o scikit-learn?

Según Wikipedia, las redes neuronales artificiales actuales tienen la complejidad del cerebro de un gusano. ¿Es eso cierto?