Esta pregunta parece subjetiva, pero intentaré responderla:
1. El aprendizaje profundo [5] parece estar recibiendo la mayor cantidad de prensa en este momento. Es una forma de red neuronal (con muchas neuronas / capas). Actualmente se publican artículos en el New Yorker [1] y el New York Times [2] sobre Deep Learning.
2. La combinación de Máquinas de vectores de soporte (SVM) y Decente gradiente estocástico (SGD) también es interesante. Los SVM son realmente interesantes y útiles porque puede usar el truco del núcleo [10] para transformar sus datos y resolver un problema no lineal utilizando un modelo lineal (el SVM). Una consecuencia de este método es el tiempo de ejecución de entrenamiento y el consumo de memoria de las escalas SVM con el tamaño del conjunto de datos. Esta situación hace que sea muy difícil entrenar SVM en grandes conjuntos de datos. SGD es un método que utiliza un proceso aleatorio para permitir que los algoritmos de aprendizaje automático converjan más rápido. Para resumir, puede combinar SVM y SGD para entrenar SVM en conjuntos de datos más grandes (teóricamente). Para más información, lea este enlace [4].
- ¿Cuál es tu algoritmo de aprendizaje automático favorito?
- ¿SSD es realmente mejor que YOLO?
- Cómo determinar la distribución que sigue un conjunto de datos
- ¿Cuál es el futuro del aprendizaje por refuerzo?
- ¿En qué áreas de la banca / finanzas se utiliza el aprendizaje automático?
3. Debido a que las computadoras ahora son rápidas, baratas y abundantes, las estadísticas bayesianas se están volviendo muy populares nuevamente (esto definitivamente no es “nuevo”). Durante mucho tiempo no fue factible utilizar técnicas bayesianas porque necesitaría realizar integraciones probabilísticas a mano (al calcular la evidencia). Hoy, Bayesist está utilizando las cadenas Monte Carlo Markov [6], aproximaciones de cuadrícula [7], muestreo de Gibbs [8], algoritmo de metrópoli [13], etc. Para obtener más información, vea los videos en Bayesian Networks en Coursera. o leer estos libros [11], [12] (¡Son una bomba!)
4. Cualquiera de los algoritmos descritos en el documento “Map Reduce for Machine Learning on a Multicore” [3]. Este artículo habla sobre cómo tomar un algoritmo / problema de aprendizaje automático y distribuirlo en múltiples computadoras / núcleos. Tiene implicaciones muy importantes porque significa que todos los algoritmos mencionados en el documento pueden traducirse a un formato de reducción de mapas y distribuirse en un grupo de computadoras. Esencialmente, nunca habría una situación en la que el conjunto de datos sea demasiado grande porque simplemente podría agregar más computadoras al clúster de Hadoop. Este documento se publicó hace un tiempo, pero aún no se han implementado todos los algoritmos en Mahout.
El aprendizaje automático es un campo de estudio realmente amplio. Estoy seguro de que hay muchos más temas, pero estos son cuatro que definitivamente me parecen interesantes.
[1] ¿Es el “aprendizaje profundo” una revolución en la inteligencia artificial?
[2] Los científicos ven avances en el aprendizaje profundo, una parte de la inteligencia artificial
[3] http://www.cs.stanford.edu/peopl…
[4] Aproximaciones del núcleo para SVM eficientes (y otros métodos de extracción de características) [actualización]
[5] Aprendizaje profundo
[6] Cadena Markov Monte Carlo
[7] http: //www.people.fas.harvard.ed…
[8] Muestreo de Gibbs
[9] Coursera
[10] Truco del kernel
[11] Haciendo análisis de datos bayesianos
[12] Amazon.com: Teoría de la probabilidad: La lógica de la ciencia (9780521592710): ET Jaynes, G. Larry Bretthorst: Libros
[13] Algoritmo de Metrópolis-Hastings