¿Cuáles son actualmente los temas candentes en la investigación de aprendizaje automático y en aplicaciones reales?

Esta pregunta parece subjetiva, pero intentaré responderla:

1. El aprendizaje profundo [5] parece estar recibiendo la mayor cantidad de prensa en este momento. Es una forma de red neuronal (con muchas neuronas / capas). Actualmente se publican artículos en el New Yorker [1] y el New York Times [2] sobre Deep Learning.

2. La combinación de Máquinas de vectores de soporte (SVM) y Decente gradiente estocástico (SGD) también es interesante. Los SVM son realmente interesantes y útiles porque puede usar el truco del núcleo [10] para transformar sus datos y resolver un problema no lineal utilizando un modelo lineal (el SVM). Una consecuencia de este método es el tiempo de ejecución de entrenamiento y el consumo de memoria de las escalas SVM con el tamaño del conjunto de datos. Esta situación hace que sea muy difícil entrenar SVM en grandes conjuntos de datos. SGD es un método que utiliza un proceso aleatorio para permitir que los algoritmos de aprendizaje automático converjan más rápido. Para resumir, puede combinar SVM y SGD para entrenar SVM en conjuntos de datos más grandes (teóricamente). Para más información, lea este enlace [4].

3. Debido a que las computadoras ahora son rápidas, baratas y abundantes, las estadísticas bayesianas se están volviendo muy populares nuevamente (esto definitivamente no es “nuevo”). Durante mucho tiempo no fue factible utilizar técnicas bayesianas porque necesitaría realizar integraciones probabilísticas a mano (al calcular la evidencia). Hoy, Bayesist está utilizando las cadenas Monte Carlo Markov [6], aproximaciones de cuadrícula [7], muestreo de Gibbs [8], algoritmo de metrópoli [13], etc. Para obtener más información, vea los videos en Bayesian Networks en Coursera. o leer estos libros [11], [12] (¡Son una bomba!)

4. Cualquiera de los algoritmos descritos en el documento “Map Reduce for Machine Learning on a Multicore” [3]. Este artículo habla sobre cómo tomar un algoritmo / problema de aprendizaje automático y distribuirlo en múltiples computadoras / núcleos. Tiene implicaciones muy importantes porque significa que todos los algoritmos mencionados en el documento pueden traducirse a un formato de reducción de mapas y distribuirse en un grupo de computadoras. Esencialmente, nunca habría una situación en la que el conjunto de datos sea demasiado grande porque simplemente podría agregar más computadoras al clúster de Hadoop. Este documento se publicó hace un tiempo, pero aún no se han implementado todos los algoritmos en Mahout.

El aprendizaje automático es un campo de estudio realmente amplio. Estoy seguro de que hay muchos más temas, pero estos son cuatro que definitivamente me parecen interesantes.

[1] ¿Es el “aprendizaje profundo” una revolución en la inteligencia artificial?

[2] Los científicos ven avances en el aprendizaje profundo, una parte de la inteligencia artificial

[3] http://www.cs.stanford.edu/peopl…

[4] Aproximaciones del núcleo para SVM eficientes (y otros métodos de extracción de características) [actualización]

[5] Aprendizaje profundo

[6] Cadena Markov Monte Carlo

[7] http: //www.people.fas.harvard.ed…

[8] Muestreo de Gibbs

[9] Coursera

[10] Truco del kernel

[11] Haciendo análisis de datos bayesianos

[12] Amazon.com: Teoría de la probabilidad: La lógica de la ciencia (9780521592710): ET Jaynes, G. Larry Bretthorst: Libros

[13] Algoritmo de Metrópolis-Hastings

Además de las excelentes respuestas proporcionadas hasta ahora, dos áreas son fascinantes y no resueltas en los niveles más profundos.

El primero es el procesamiento del lenguaje natural (PNL) . Para resumir la respuesta de Akshay Sharma en ¿Cuáles son los principales problemas abiertos en la comprensión del lenguaje natural ?, hemos hecho un progreso significativo en áreas como la detección de spam, parte del etiquetado del habla, análisis de sentimientos, análisis, etc. Por ejemplo, Deep Drumpf: el intento de bots de Twitter para superar a Trump el Donald.

Sin embargo, todavía estamos lejos de construir una máquina que converse con fluidez con una persona promedio además de Trump. Además, aunque el idioma inglés es un tema bien investigado, el análisis de idiomas como chino, coreano, tailandés, vietnamita y árabe es mucho más difícil con una serie de nuevos problemas que resolver (falta de espacio entre caracteres, estructura de oraciones diferente, acentos, etc. etc.) Con más y más del mundo en línea, hay una gran cantidad de conocimiento y personas a las que podemos contactar si podemos entender mejor su idioma.

La otra área es el análisis en tiempo real , que se ha aplicado en escenarios del mundo real como datos de sensores IOT, recomendaciones ‘en vivo’, ofertas en tiempo real (RTB) para anuncios, análisis de marcadores de acciones, fraude, detección de anomalías, etc. La comunidad tenía realizó muchos trabajos básicos en forma de arquitectura, herramientas y modelos de aprendizaje en línea

  • Arquitectura Lambda para sistemas de Big Data
  • ¿Cuáles son las diferencias entre Apache Spark y Apache Flink?
  • Aprendizaje automático a gran escala
    con descenso de gradiente estocástico
  • Transmisión de regresión lineal
  • Streaming k-means

Para construir modelos de transmisión en tiempo real, la sabiduría convencional es usar (a) modelos de aproximación como el descenso de gradiente estocástico o (b) modelos más simples como la regresión lineal. Tanto (a) como (b) la precisión comercial para la velocidad y las capacidades de aprendizaje en línea. ¿Por qué no podemos tener el pastel y comerlo? ¿Por qué no podemos implementar una mayor variedad de modelos en tiempo real, de manera confiable, económica y sin hacks complicados?

El aprendizaje transuductivo y semi-supervisado sigue siendo un gran misterio

Ver, por ejemplo, este artículo reciente en el Journal of Machine Learning Research (JMLR)

Aprendizaje generativo semi-supervisado imparcial (2014)
Página en jmlr.org

que comienza:

“El aprendizaje semi-supervisado confiable, donde una pequeña cantidad de datos etiquetados se complementa con un gran cuerpo de datos no etiquetados, ha sido un objetivo de larga data de la comunidad de aprendizaje automático. Sin embargo, aunque parece intuitivamente obvio que los datos no etiquetados pueden ayudar a proceso de aprendizaje, en la práctica su desempeño ha sido a menudo decepcionante “

Proporciono una introducción básica en mi blog:

Aprendizaje automático con etiquetas faltantes: SVM transductoras

Yo mismo conocí este problema por primera vez a fines de la década de 1990.
donde probamos algunas cosas ingenuas al principio
Operadores efectivos parte 2: aprendizaje semi supervisado simple

Hoy, para abordar este problema, nos gustaría establecer un conjunto de proyectos de investigación de código abierto, colaboración, ciencia de datos / aprendizaje automático, como

Contenido calculado / tsvm

Nos gustaría profundizar en el aprendizaje transductivo / semi-supervisado, autoencoders y optimización convexa basada en NMF para pre-entrenamiento, recomendaciones musicales, aprendizaje profundo, etc.

(es decir, el aprendizaje profundo utiliza la capacitación previa en datos sin etiquetar para conocer las mejores características para la siguiente capa, por lo que estamos muy interesados ​​en métodos como el NMF convexo que también son una especie de codificador automático)

Estos proyectos están diseñados para proyectos de investigación científica de buena fe que requieren recopilar nuestros propios datos y diseñar experimentos que prueben sistemáticamente ideas teóricas específicas.

A diferencia de Kaggle, que es aislado, competitivo y predefinido, estos proyectos están destinados a ser compartidos, colaborativos y requieren un pensamiento externo e independiente para enmarcar y abordar los problemas.

Cada proyecto involucra

1. comprensión matemática y avance
2. experimentos de ciencia de datos
3. desarrollando algún código


Para obtener más datos divertidos y respuestas increíbles, consulte mi canal de YouTube https://www.youtube.com/channel/

y sígueme en Twitter https://twitter.com/CalcCon

Siento que esta respuesta será obsoleta en unos pocos meses (¿semanas?) Según el ritmo de desarrollo dentro del sector de LD, pero aquí va de todos modos.

En primer lugar, desde una perspectiva de alto nivel, el aprendizaje automático será especialmente útil cuando haya grandes conjuntos de datos para jugar. Los ejemplos de primera línea que han sido el foco central hasta ahora son tipos estructurados de datos con un conjunto claro de parámetros que incluyen:

  • Identificación de imagen;
  • Traducción;
  • Reconocimiento de voz: consulte este artículo sobre cómo se están aplicando AI y ML en los equipos Apple / Siri.

Esto significa que las compañías tecnológicas más grandes que han acumulado grandes cantidades de los datos anteriores, tienen una ventaja y pueden aprovechar esto para construir soluciones con Machine Learning en el núcleo.

Voy a abordar esta cuestión desde un punto de vista diferente, simplemente centrándome en las aplicaciones del mundo real: ¿cuáles son algunas de las industrias que probablemente sufrirán un cambio drástico con la introducción de Machine Learning / Deep Learning y tecnologías exponenciales similares?

  1. Cuidado de la salud

Varios estudios y experimentos de ML dentro de la atención médica ya han demostrado el impacto que los algoritmos de aprendizaje automático pueden tener al procesar la información mucho más rápido (y, por lo tanto, detectar más patrones) que sus contrapartes humanas. Por ejemplo, el Laboratorio de Inteligencia Artificial de Stanford entrenó un algoritmo para detectar el cáncer de piel más rápido que un dermatólogo, basado en la gran cantidad de datos que podría procesar.

Hay una serie de compañías que utilizan algoritmos de ML para comprender y mitigar los factores de riesgo de enfermedades al enfocarse en la atención preventiva.

2. Detección de fraude

Machine Learning está ayudando a compañías como PayPal a detectar y combatir el fraude al mitigar el riesgo de lavado de dinero.

Paypal utiliza diferentes tipos de algoritmos para separar a los clientes en segmentos de perfil de riesgo. Tienen grandes cantidades de datos sobre sus clientes, incluidos datos financieros, información sobre hábitos de compra, beneficiarios frecuentes, etc.

3. Recomendaciones personalizadas

El despliegue publicitario implacable en torno a ‘Big Data’ significa que esta aplicación no sorprende a nadie. Los algoritmos inteligentes analizan su actividad (por ejemplo, Spotify / Netflix / ASOS, etc.) y la comparan con los millones de otros usuarios para determinar qué es probable que compre o quiera ver a continuación. Cuanto más use el servicio, mejores serán las recomendaciones.

Si bien las empresas generalmente han podido aprovechar los datos existentes, como los datos históricos, ahora pueden pronosticar con precisión cuáles serán las ventas o predecir la próxima tendencia de la moda al aprovechar el aprendizaje automático.

4. Finanzas

Muchas empresas comerciales y bancarias han estado utilizando algoritmos de aprendizaje automático y otros sistemas patentados para predecir qué hará el mercado de valores en un día determinado. Muchas de las operaciones de alto volumen / alta velocidad que ejecutan dependen de la probabilidad, es decir, creadas por estos algoritmos.

Hay una serie de otras industrias y aplicaciones para todo tipo de algoritmos de Machine Learning. Espero ver cómo cambia el panorama.


Publico un boletín quincenal sobre tecnología exponencial (AI, ML, Blockchain, etc.). Me encantaría que lo pudieras consultar aquí: http: //newsletter.exponentialmus

Me gusta la respuesta de Joseph pero agregaría métodos de conjunto, en particular bosques aleatorios y árboles de regresión potenciados por gradiente. Los bosques aleatorios son conceptualmente simples pero son métodos de caja negra muy potentes y robustos.

Además, los bosques aleatorios se adaptan naturalmente a muchas tareas diferentes: valores perdidos, mezcla de variables categoriales y continuas, etiquetas múltiples, etiquetas estructuradas, aprendizaje basado en pérdidas, …

Microsoft tiene un buen artículo / libro de resumen:
http://research.microsoft.com/ap

He creado esta lista con exactamente eso en mente: encuestas de aprendizaje automático
Puede obtener una descripción general rápida de varios temas de Machine Learning y ver qué tipo de problemas interesantes enfrentan hoy en día.

Respondí una pregunta muy similar aquí.

La respuesta de Murthy Kolluru a ¿Cuáles son algunas preguntas abiertas en las que Quora Jobs and Careers in Data Science están trabajando / quisiera saber la respuesta?

El aprendizaje automático es actualmente un tema candente para la investigación. Es parte de la familia de la inteligencia artificial. Los temas de investigación populares en este campo son:

  • Aprendizaje profundo
  • Procesamiento natural del lenguaje
  • Red neuronal profunda
  • Red neuronal artificial
  • Aprendizaje supervisado
  • Aprendizaje sin supervisión
  • Análisis predictivo
  • Detección de fraude
  • Herramientas de aprendizaje automático

El aprendizaje automático es un campo muy amplio, hay varias áreas para explorar.

Me limitaré a uno: Combinar aprendizaje automático y lógica.

La lógica probabilística, la inferencia probabilística automatizada y otras ideas adoptan un enfoque estadístico para aprender ciertos tipos de relaciones lógicas (por ejemplo, x padre de y, y padre de z -> x padre de z se puede aprender simplemente mirando el texto).

Sin embargo, es difícil, y las relaciones más complejas aún son difíciles de extraer automáticamente a gran escala. Pero es nuestra mejor herramienta para encontrar relaciones lógicas más suaves, que a veces son incompletas o contradichas.

Junto con ML a gran escala, otro tema que se está volviendo popular es el aprendizaje automático a pequeña escala .
Con el avance de los teléfonos inteligentes, ahora las personas están tratando de ejecutar los algoritmos de ML en dispositivos pequeños. Pero generalmente estos algoritmos consumen mucha memoria y batería, por lo que los datos se transfieren a algún servidor antes de ejecutar los algoritmos ML. Ahora la gente está trabajando en cómo optimizar los algoritmos de ML para ejecutarlos de manera eficiente en dispositivos portátiles o pequeños, como cámaras, robots o teléfonos inteligentes (tal vez usando GPU, etc.).
Esta es otra área interesante en ML también.

Seré un poco más práctico que los otros votos aquí:

– Detección de fraude y comportamiento anómalo del usuario
– Selección de modelo

– Aprendizaje basado en nodos de modelos gráficos
– Aprendizaje semiestructurado con redes de Markov
– Predicción de enlace
– Robusto PCA y métodos de proyección de dimensiones inferiores
– Como puede ver en LEAP & Kinect, la detección de gestos y el reconocimiento del movimiento humano aún no es un problema completamente resuelto
– Investigación de la dispersión, por ejemplo, optimización limitada de la dispersión y enfoques óptimos. las cosas raras son increíbles (a veces)
– Siempre es una buena pregunta, ¿podemos hacer que nuestras modelos aprendan de manera más eficiente? ¿Qué pasa si tenemos un cierto conjunto de presunciones sobre nuestros datos?
– Enfoques de agrupamiento
– Aprendizaje múltiple
– Particionamiento adaptativo
– Recuerdos borrosos

Los tres temas candentes actuales en ML serían:
1) Aprendizaje profundo: Principalmente, la capacidad computacional demostró ser una barrera en el pasado. Con el avance en HPC, las redes neuronales ahora pueden aprender de capas más profundas y este es definitivamente el término a tener en cuenta.
2) Modelos híbridos que utilizan el aprendizaje automático: la mayoría de los profesionales tienen un consenso no dicho de que el NM puro puede no ser una forma viable de resolver problemas, ya que puede ser costoso pero no 100% exacto. Debido a esto, los modelos híbridos (combinación de principios CS tradicionales casados ​​con modelos ML) se están poniendo al día rápidamente.
3) Aplicación interdisciplinaria de ML: Este ha sido un tema candente por un tiempo. Pero últimamente, los investigadores han comenzado a mirar más allá de lo habitual (BFSI o sectores minoristas) para aplicar el LD.

Dos temas candentes en pellizcos este año:
1. Aprendizaje profundo
2. Programación probabilística

Desde mi punto de vista, los métodos espectrales y tensoriales y la convergencia rápida serán temas candentes básicos en el aprendizaje de máquinas:
Animashree Anandkumar

1- aprendizaje profundo
2- PGM (modelos gráficos probabilísticos)

More Interesting

¿Qué lenguajes de programación son adecuados para el procesamiento del lenguaje natural?

¿Cómo se puede interpretar el teorema de Bayes en términos de inferir relaciones causales en los datos?

¿Es el modelo de análisis factorial una versión multivariada del modelo de mezcla gaussiana?

¿Cuáles son las mejores herramientas para la minería de datos en Internet? ¿Qué debo usar para configurar un evento automático / alerta de tendencia?

¿Cuáles son algunos casos de mal uso de las redes neuronales?

¿Por qué confiamos en la aleatoriedad de la búsqueda aleatoria en la optimización de hiperparámetros?

¿Cuál es el enfoque más eficiente para los sistemas de recomendación?

¿Puede el aprendizaje automático desarrollar el gusto?

Aprendizaje automático: ¿cómo se puede saber cuándo combinar diferentes características sería útil?

¿Para qué se puede utilizar el análisis de la marcha?

¿Debo usar juicios de relevancia explícitos o comentarios de clics implícitos para recopilar datos de capacitación para construir un modelo de Aprendizaje para clasificar?

¿Cuál es el mejor método de extracción de características para OCR en texto chino escrito a mano?

¿Cuáles son las formas en que el científico de datos indio que actualmente trabaja en una empresa de aprendizaje automático con sede en India inmigra a los Estados Unidos?

Modelos ocultos de Markov: ¿cómo se obtiene el siguiente valor observado pronosticado de un HMM?

Quiero extraer acciones del texto y la entidad que actuó y sobre la que se actúa. Cómo proceder ?