Aquí está la respuesta que le di a esta pregunta similar:
¿Qué nuevas innovaciones se han producido en el campo de la inteligencia artificial entre 2000 y 2010?
Esto no pretende ser exhaustivo, solo un par que viene a la mente:
1. El surgimiento de métodos variacionales, es decir, tratar los problemas de razonamiento y aprendizaje probabilístico como problemas de optimización. Alrededor de 2000 o un poco antes, la gente comenzó a tratar de comprender la propagación de creencias, y esto condujo a muchas conexiones entre la programación lineal y otros marcos de optimización bien estudiados en otros campos, y un gran avance tanto en términos teóricos como prácticos. Una descripción técnica pero completa está aquí:
MJ Wainwright y MI Jordan Modelos gráficos, familias exponenciales e inferencia variacional. Fundamentos y tendencias en el aprendizaje automático, vol. 1, Números 1–2, págs. 1–305, diciembre de 2008.
http://www.eecs.berkeley.edu/~wa…
2. “Aprendizaje profundo“: la gran idea nueva (que hace que realmente funcione) es construir primero representaciones de nivel superior del mundo antes de intentar que su modelo haga lo que quiere que haga. Por ejemplo, antes de intentar decidir si una noticia es buena o mala, primero descubra las regularidades en el lenguaje. Geoff Hinton ofrece varios enlaces desde su página de inicio: http://www.cs.toronto.edu/~hinton/ o visite este sitio web que trata de reunir los esfuerzos de los investigadores en esa área: http://deeplearning.net
- ¿Los diferentes idiomas introducen su propia sobrecarga cuando hacen computación paralela?
- ¿Existe una relación entre el aprendizaje múltiple y el análisis de datos topológicos?
- ¿Cuáles son algunas buenas áreas de investigación en informática en IIT Kanpur?
- ¿Cuán "ciegos" son los revisores de conferencias académicas? ¿Pueden los profesores y / o estudiantes de posgrado a menudo reconocer a los autores del trabajo, a pesar de que las revisiones son técnicamente "ciegas"?
- Cómo estudiar la teoría de la computación para Gate