A través del interés en la inteligencia articular, el conexionismo y las redes neuronales.
La mayoría del trabajo inicial en el campo que identificamos hoy como aprendizaje automático ha surgido de la neurociencia computacional, la ciencia cognitiva y el deseo de construir máquinas que funcionen como cerebros humanos. El trabajo de Hinton sobre la propagación hacia atrás, las máquinas de Boltzmann, las máquinas de Helmholtz (que finalmente conducen al aprendizaje profundo hoy en día), el análisis de componentes independientes son buenos ejemplos de esto.
Si nos fijamos en la lista de publicaciones de Mike, especialmente a finales de los 80, los títulos y los nombres de las revistas cuentan una historia:
- ¿Qué metodologías populares de aprendizaje automático se usan típicamente con datos que no son iid?
- ¿Cuáles son los principales hechos de Big Data?
- ¿Cuál es una mala manera de comenzar a aprender ciencia de datos, aprendizaje automático y aprendizaje profundo?
- Cómo aprender SAS o R por mí mismo
- ¿Cuál es la diferencia entre un ingeniero y un científico, y cuál es más divertido?
Dinámica del atractor y paralelismo en una máquina secuencial conexionista. MI Jordan. Actas de la Octava Conferencia Anual de la Sociedad de Ciencias Cognitivas, 1986
Una introducción al álgebra lineal en paralelo, procesamiento distribuido. Procesamiento distribuido en paralelo: exploraciones en la microestructura de la cognición, 1986
A medida que el aprendizaje automático crecía, comenzó a construir sobre bases más sólidas en estadística, álgebra lineal y algoritmos. Mike hizo contribuciones cada vez más fundamentales y gradualmente se ha desplazado hacia estadísticas clásicas o frecuentistas.