¿Cuáles son las contribuciones más notables de Andrew Ng en el campo de la inteligencia artificial?

La contribución científica más notable de Andrew Ng al campo de la inteligencia artificial es probablemente el famoso “resultado de gato” [1], donde una red neuronal aprendió a identificar gatos en YouTube sin que se le dijera qué buscar. Representaba una revolución pequeña pero significativa en la búsqueda de IA general. Esto fue durante su breve período con Google X.

Yo diría que su contribución más notable a la inteligencia artificial en general es el MOOC de Machine Learning que condujo a la creación de Coursera. Ha introducido a cientos de miles, si no millones, de personas al asombroso mundo del aprendizaje automático. Además, Coursera se ha convertido en una de las mejores y más populares plataformas para aprender sobre aprendizaje automático, ciencia de datos e inteligencia artificial. El efecto de esta democratización del material educativo es inconmensurable.

Notas al pie

[1] El cerebro artificial de Google aprende a encontrar videos de gatos

No en orden (de ninguna manera):

  • Curso Coursera y plataforma Coursera. Hay más de un millón de estudiantes que tomaron este curso, y probablemente unos cientos de miles que lo terminaron. Para muchas personas, este fue el primer aprendizaje automático que hicieron (o tal vez después de una regresión lineal que podrían haber hecho en la clase de estadística). Además, la plataforma Coursera tiene otros cursos relacionados con ML, por lo que muchas personas obtuvieron conocimientos adicionales de esos cursos.
  • Asignación de dirichlet latente. Uno de los principales algoritmos de la última década, utilizado mucho en PNL. Ng fue el segundo autor del artículo.
  • Agrupación espectral. Si bien no es el primer algoritmo de agrupación espectral, sin duda el primer algoritmo que realizó la agrupación espectral funciona bien. Eso cuenta, supongo. Ng fue el primer autor del artículo.
  • El ‘resultado de Cat’ y Google Brain (y convencer a Dean para que se una al campo). El documento popularizó el aprendizaje profundo, fue el primer resultado impresionante en el aprendizaje profundo sin supervisión (en el mismo año en que Krizhesky et al. Rompieron todos los registros de clasificación en ImageNet) y convencieron a Google de que el aprendizaje profundo es el futuro.
  • Trabajo pionero en redes neuronales de refuerzo, desde helicópteros autónomos hasta conducción autónoma que ha estado haciendo en Baidu.
  1. STAIR (robot de inteligencia artificial standford): resultó en la plataforma de software de código abierto ROS defacto robot
  2. Google Brain (resultó en las bibliotecas de código abierto de aprendizaje profundo)
  3. Hugly acreditado por MOOC

Un verdadero aprendizaje profundo y prodigio de IA 🙂

Creo que es el curso en línea de Machine Learning que comenzó a ofrecer en 2011. Esto motivó a muchos estudiantes a seguir ML. Por supuesto, ha realizado muchos trabajos de investigación influyentes, pero ve el crecimiento exponencial de los trabajos influyentes no solo de él, sino también de los investigadores que creó en todo el mundo.

Junto con todas las otras contribuciones importantes que se mencionan a continuación, creo que fue muy significativo que Andrew y / o su equipo introdujeron el uso de GPU en la implementación de redes neuronales. Esto es casi al mismo tiempo que NN comenzó a entregar importantes registros de precisión de predicción, alrededor de 2012.

Además de lo que otros dijeron, también es el co-inventor de la asignación de dirichlet latente, un modelo gráfico para el descubrimiento de temas junto con Mike Jordan y David Blei. Su artículo es muy citado.