¿Qué progreso se ha logrado en el aprendizaje profundo en 2014?

En 2014 hubo algunos trabajos emocionantes en visión artificial (clasificación y detección de imágenes) usando Deep Learning:
1. GoogLeNet: Evolución de la conexión entre neuronas. Podemos tener redes neuronales pequeñas en una gran red neuronal conectada en paralelo (red en red). Ayuda adicional de salida multiplicada de pérdida en propagación de gradiente
2. Equipo de VGG: Very Deep Networks realmente funciona bien, pero el tiempo de entrenamiento es horrible.
3.RCNN: propuesta de objeto de conexión con Deep Learning, ahora todos lo hacen
4. Multibox: Obtenga propuestas de objetos de la red neuronal. Por lo tanto, todo el marco contiene solo Deep Learning
5. Otros miembros del personal como: agrupación espacial, información contextual de Deep-ID
6. De Hinton: “Conocimiento oscuro”, la forma de transferir el aprendizaje de varias redes neuronales a una para mejorar la precisión de esta y reducir el tiempo de evacuación

Hay documentos principales, principalmente de la competencia ImageNet 2014.
Hubo muchos otros artículos interesantes como Max-Out, Stochasting Pooling o Multi-Column Network, pero no se usaron en esa competencia, por lo que no sabemos la utilidad real de esos inventos.

Por otro lado, hubo muchas mejoras en la velocidad, como la convolución FFT o la biblioteca cuDNN.

De hecho, ¡hubo muchos cambios en Deep Learning en 2014!

Aquí hay algo sobre IA en general (avances en inteligencia artificial de 2014 | MIT Technology Review), pero DL también se menciona al principio:
“El trabajo en el aprendizaje profundo a menudo se enfoca en imágenes, que son fáciles de entender para los humanos pero muy difíciles de descifrar para el software. Los investigadores de Facebook usaron ese enfoque para crear un sistema que pueda decir casi tan bien como un humano si dos fotos diferentes representan el misma persona . Google mostró un sistema que puede describir escenas usando oraciones cortas “.

Se demostró que el aprendizaje profundo está relacionado con una vieja idea de Theoretical Physics, el Grupo de Renormalización Variacional

Por qué Deep Learning Works II: el Grupo de Renormalización

La idea de que (con algunos ajustes como el abandono y el adadelta) las buenas redes neuronales de retroalimentación con anticuado propagación son las redes profundas de mejor rendimiento en una amplia gama de aplicaciones.

More Interesting

¿Cuáles son las principales razones por las que todavía no existe una superinteligencia artificial?

¿Quién estaba en el equipo que desarrolló la IA de 'Eugene Goostman'?

Si los robots humanos se convirtieran en algo común, ¿deberían ser profesores universitarios?

¿Qué algoritmos crean otros algoritmos? ¿Cómo trabajan?

¿Qué temas debo saber en PNL?

¿Cuáles son las diferencias entre la inteligencia artificial, el aprendizaje automático y el aprendizaje profundo?

Cuántos 'nodos' funcionales (conscientes, conscientes de sí mismos) una vez integrados son; (a) requerido, (b) óptimo, para que el "cerebro / mente global" logre una conciencia de funcionamiento coherente?

¿Podría la IA llegar a ser lo suficientemente avanzada como para ser indistinguible de los humanos?

¿Cuán inteligente puede ser el Asistente de Google en términos de IA ambiental que no solo podría ayudarnos a vivir mejor nuestras vidas sino también brindarnos compañía?

Cómo aumentar la retención en mi chatbot

¿Qué es la vida artificial?

¿Qué tan difícil es competir en competencias de Kaggle sin usar bibliotecas de aprendizaje profundo como Theano, Caffe o Torch?

¿Cuáles son las desventajas de las máquinas de aprendizaje extremo?

Rethink Robotics (anteriormente Heartland Robotics) lanzará un robot con un precio "disruptivo" en unas pocas semanas. ¿Tendrá esto un efecto inmediato sobre el empleo manufacturero o la economía?

Cómo crear un chatbot para mi sitio web