El aprendizaje automático (ML) nació de la búsqueda de inteligencia artificial (IA). En su infancia, el enfoque simbólico era dominante porque los intentos anteriores de redes neuronales fallaron debido a la dificultad inherente en el entrenamiento de dichas redes (no resultó ser insuperable, ver: El problema XOR condujo a la propagación hacia atrás (enlaces a: http: / /mnemstudio.org/neural-net…)).
Por lo tanto, las técnicas lógicas basadas en el conocimiento proliferaron con sistemas expertos que dominaron los campos de IA en la década de 1980 y más métodos estadísticos cayeron en desgracia y se consideraron que no formaban parte del campo de IA en general, sino que se limitaron al reconocimiento de patrones y a los sistemas de recuperación de información en ese momento. hora. Las redes neuronales estaban completamente abandonadas en este punto, pero un pequeño número de investigadores aún trabajaban en ellas en un campo separado llamado conexionismo.
Esos pocos investigadores en el conexionismo descubrieron la propagación hacia atrás a mediados de la década de 1980 que dio a luz a ML y que comenzó a florecer en la década de 1990 con una nueva agenda de abordar problemas de alcance estrecho más solucionables de naturaleza práctica en lugar de los problemas de mayor alcance de la IA, por lo tanto, ML se convirtió en un campo en IA. Los métodos simbólicos se abandonaron en el camino y se volvió a centrar más la atención en las estadísticas y las teorías de probabilidad, aunque los enfoques simbólicos son buenos para la inferencia y, por lo tanto, siguen siendo útiles. El aprendizaje automático se centró en la resolución de predicciones basadas en propiedades conocidas aprendidas de los datos.
- ¿Dónde nos llevará la investigación genómica impulsada por la informática en 5 años?
- ¿Cómo puedo buscar solo documentos de transacciones IEEE?
- ¿Cuál es el lenguaje de programación potente y fácil de hoy y de mañana?
- ¿Cuál es la investigación más emocionante en informática en 2010? ¿Por qué es emocionante?
- ¿Los investigadores de matemática o ciencias de la computación teóricas leen documentos o simplemente tratan de pensar originalmente?
Las redes neuronales volvieron a aparecer después de que en 1989 Yann LeCun et al pudieron aplicar el algoritmo de propagación hacia atrás para entrenarlos. Pero este enfoque de propagación hacia atrás se remonta a la década de 1970, que solo se usó como el modo inverso de diferenciación automática. La red que fue entrenada por Yann LeCun era en realidad una red neuronal profunda para el reconocimiento de códigos postales escritos a mano en el correo y al igual que ese aprendizaje profundo nació aunque la expresión “aprendizaje profundo” fue introducida en ML en 1986 por Rina Dechter.
Estas redes tomaron demasiado tiempo para aprender debido a razones computacionales y el problema de gradiente desaparecido analizado por Sept Hochreiter en 1991. Ahora, en este momento, en los años 1990 y 2000, las características y clasificadores hechos a mano como máquinas de vectores de soporte eran populares debido a su simplicidad.
Un avance rápido hasta hoy, el aprendizaje profundo ha dominado el campo de la visión por computadora y el reconocimiento automático del habla. Hay varios tipos de red que funcionan bien. En el reconocimiento de imágenes, las redes neuronales convolucionales (CNN) son dominantes, mientras que en el reconocimiento de voz automático (ASR) son dominantes los LSTM o las redes de memoria a largo plazo.
La detección de objetos visuales en la visión por computadora está dominada por redes neuronales convolucionales basadas en regiones o R-CNN, específicamente el R-CNN más rápido. Se basan en redes de propuestas de regiones que proponen regiones con una alta probabilidad de contener el objeto de interés y una CNN para verificar la propuesta, algo similar a las corrientes dorsales y ventrales respectivamente en la hipótesis de dos corrientes de la corteza visual de los mamíferos.
En el aprendizaje automático no supervisado, el aprendizaje profundo se puede utilizar con el aprendizaje por refuerzo, un enfoque llamado aprendizaje por refuerzo profundo. Este método se usó en el sistema AlphaGo que fue capaz de derrotar a Lee Sedol en un partido de cinco juegos de Go, la primera vez en la historia que un programa de computadora Go ha derrotado a un profesional de 9 dan sin desventajas.
También hay otras técnicas interesantes en ML que actualmente están recibiendo atención, como la inferencia causal. En realidad, esto no es nada nuevo porque fue investigado por J. Pearl en 2000. Esto es importante para los sistemas robóticos en un entorno porque el robot debe ser capaz de predecir cómo, cuándo y dónde actuar para tener el efecto deseado. y problema de efecto.
Estoy bastante seguro de que hay algo que he dejado fuera.
Pero espero que esto ayude.