¿Qué se encuentra en la primera línea de Machine Learning Research?

El aprendizaje automático (ML) nació de la búsqueda de inteligencia artificial (IA). En su infancia, el enfoque simbólico era dominante porque los intentos anteriores de redes neuronales fallaron debido a la dificultad inherente en el entrenamiento de dichas redes (no resultó ser insuperable, ver: El problema XOR condujo a la propagación hacia atrás (enlaces a: http: / /mnemstudio.org/neural-net…)).

Por lo tanto, las técnicas lógicas basadas en el conocimiento proliferaron con sistemas expertos que dominaron los campos de IA en la década de 1980 y más métodos estadísticos cayeron en desgracia y se consideraron que no formaban parte del campo de IA en general, sino que se limitaron al reconocimiento de patrones y a los sistemas de recuperación de información en ese momento. hora. Las redes neuronales estaban completamente abandonadas en este punto, pero un pequeño número de investigadores aún trabajaban en ellas en un campo separado llamado conexionismo.

Esos pocos investigadores en el conexionismo descubrieron la propagación hacia atrás a mediados de la década de 1980 que dio a luz a ML y que comenzó a florecer en la década de 1990 con una nueva agenda de abordar problemas de alcance estrecho más solucionables de naturaleza práctica en lugar de los problemas de mayor alcance de la IA, por lo tanto, ML se convirtió en un campo en IA. Los métodos simbólicos se abandonaron en el camino y se volvió a centrar más la atención en las estadísticas y las teorías de probabilidad, aunque los enfoques simbólicos son buenos para la inferencia y, por lo tanto, siguen siendo útiles. El aprendizaje automático se centró en la resolución de predicciones basadas en propiedades conocidas aprendidas de los datos.

Las redes neuronales volvieron a aparecer después de que en 1989 Yann LeCun et al pudieron aplicar el algoritmo de propagación hacia atrás para entrenarlos. Pero este enfoque de propagación hacia atrás se remonta a la década de 1970, que solo se usó como el modo inverso de diferenciación automática. La red que fue entrenada por Yann LeCun era en realidad una red neuronal profunda para el reconocimiento de códigos postales escritos a mano en el correo y al igual que ese aprendizaje profundo nació aunque la expresión “aprendizaje profundo” fue introducida en ML en 1986 por Rina Dechter.

Estas redes tomaron demasiado tiempo para aprender debido a razones computacionales y el problema de gradiente desaparecido analizado por Sept Hochreiter en 1991. Ahora, en este momento, en los años 1990 y 2000, las características y clasificadores hechos a mano como máquinas de vectores de soporte eran populares debido a su simplicidad.

Un avance rápido hasta hoy, el aprendizaje profundo ha dominado el campo de la visión por computadora y el reconocimiento automático del habla. Hay varios tipos de red que funcionan bien. En el reconocimiento de imágenes, las redes neuronales convolucionales (CNN) son dominantes, mientras que en el reconocimiento de voz automático (ASR) son dominantes los LSTM o las redes de memoria a largo plazo.

La detección de objetos visuales en la visión por computadora está dominada por redes neuronales convolucionales basadas en regiones o R-CNN, específicamente el R-CNN más rápido. Se basan en redes de propuestas de regiones que proponen regiones con una alta probabilidad de contener el objeto de interés y una CNN para verificar la propuesta, algo similar a las corrientes dorsales y ventrales respectivamente en la hipótesis de dos corrientes de la corteza visual de los mamíferos.

En el aprendizaje automático no supervisado, el aprendizaje profundo se puede utilizar con el aprendizaje por refuerzo, un enfoque llamado aprendizaje por refuerzo profundo. Este método se usó en el sistema AlphaGo que fue capaz de derrotar a Lee Sedol en un partido de cinco juegos de Go, la primera vez en la historia que un programa de computadora Go ha derrotado a un profesional de 9 dan sin desventajas.

También hay otras técnicas interesantes en ML que actualmente están recibiendo atención, como la inferencia causal. En realidad, esto no es nada nuevo porque fue investigado por J. Pearl en 2000. Esto es importante para los sistemas robóticos en un entorno porque el robot debe ser capaz de predecir cómo, cuándo y dónde actuar para tener el efecto deseado. y problema de efecto.

Estoy bastante seguro de que hay algo que he dejado fuera.

Pero espero que esto ayude.

ML es un gran tema que es una combinación de informática y estadística. ML es una ciencia metodológica y las metodologías están motivadas tanto por problemas prácticos como teóricos y formulaciones. No es el tipo de cosas que se pueden resumir fácilmente.

Para saber dónde está la ventaja, mire los procedimientos para ICML, NIPS, AAAI y algunos otros para tener una idea basada en los documentos. También puede hacer un seguimiento en los sitios de los autores de esos documentos para ver en qué dirección de investigación se dirigen. ML es muy, muy amplio y la frontera del conocimiento abarca un área muy amplia. Desde mi experiencia en estas conferencias, los RNN están de moda, el análisis de causalidad está aumentando, los no paramétricos bayesianos son un gran tema. Hay muchos otros

Dado que Deep Learning es el área más candente en Machine Learning en este momento, señalaré uno de los principales problemas no resueltos en Deep Learning. El aprendizaje profundo ha resultado en una mejora significativa en una miríada de problemas, como el reconocimiento automático de objetos en imágenes, el reconocimiento de voz, la traducción automática, el subtitulado de imágenes, la superación de humanos en juegos como Go, etc. Sin embargo, a pesar de todas estas historias de éxito, la profundidad actual Los sistemas de aprendizaje son muy frágiles. Al agregar una pequeña cantidad de ruido a la señal de entrada, podría romper el sistema de aprendizaje profundo, es decir, hacer que prediga una salida aleatoria. Por lo tanto, una gran pregunta sin respuesta en Machine Learning es cómo hacer que los sistemas de aprendizaje profundo sean invariables ante señales triviales y ruidosas.

More Interesting

¿Qué puedes hacer en la escuela de posgrado para aumentar tus posibilidades de conseguir un trabajo académico, además de hacer una buena investigación?

Cómo encontrar doctorados en ciencias de la computación o investigadores que hayan publicado artículos

¿Cuáles son los proyectos más interesantes en Facebook AI Research (FAIR)?

¿Qué problemas informáticos difíciles o sin resolver tienen más probabilidades de ser ignorados por aquellos nuevos en la programación?

¿Cuáles son los mejores proyectos de investigación y desarrollo que puede hacer un estudiante de informática?

¿Cuáles son las tareas diarias de un investigador de inteligencia artificial?

¿Cuál de los IIT, IIScs e IIIT tiene la mejor investigación en el campo de la visión por computadora? ¿Cuáles son los cursos que se ofrecen en el campo?

Para un estudiante de doctorado ambicioso en seguridad (de sistemas), ¿solo cuentan las 4 conferencias principales (nivel 1)?

¿Cuáles son actualmente los temas de investigación más importantes en Multiprocesamiento?

¿Es necesario investigar durante la licenciatura para ingresar a un programa de maestría en Ciencias de la Computación?

¿Cuáles son los documentos fundamentales en lenguajes de programación y programación funcional?

¿Qué país europeo es el mejor para hacer un doctorado en visión artificial y vivir allí después de la graduación?

¿Es que SOP en GRE para informática requiere un gran trabajo de investigación o un muy buen proyecto?

¿Hay algún artículo traducido o escrito escrito por autores japoneses sobre la computadora de quinta generación ICOT encabezada por el gobierno japonés en la década de 1980?

¿Cuáles son algunos algoritmos de alineación de secuencia?