En 2014 hubo algunos trabajos emocionantes en visión artificial (clasificación y detección de imágenes) usando Deep Learning:
1. GoogLeNet: Evolución de la conexión entre neuronas. Podemos tener redes neuronales pequeñas en una gran red neuronal conectada en paralelo (red en red). Ayuda adicional de salida multiplicada de pérdida en propagación de gradiente
2. Equipo de VGG: Very Deep Networks realmente funciona bien, pero el tiempo de entrenamiento es horrible.
3.RCNN: propuesta de objeto de conexión con Deep Learning, ahora todos lo hacen
4. Multibox: Obtenga propuestas de objetos de la red neuronal. Por lo tanto, todo el marco contiene solo Deep Learning
5. Otros miembros del personal como: agrupación espacial, información contextual de Deep-ID
6. De Hinton: “Conocimiento oscuro”, la forma de transferir el aprendizaje de varias redes neuronales a una para mejorar la precisión de esta y reducir el tiempo de evacuación
Hay documentos principales, principalmente de la competencia ImageNet 2014.
Hubo muchos otros artículos interesantes como Max-Out, Stochasting Pooling o Multi-Column Network, pero no se usaron en esa competencia, por lo que no sabemos la utilidad real de esos inventos.
Por otro lado, hubo muchas mejoras en la velocidad, como la convolución FFT o la biblioteca cuDNN.
- ¿Está bien usar un modelo de aprendizaje automático no supervisado para la predicción?
- ¿Es posible escribir código que pueda codificarse y mejorarse a sí mismo? En caso afirmativo, proporcione un ejemplo.
- ¿Es realista escribir un programa de reconocimiento facial con aprendizaje profundo en 3 meses sin conocimiento previo sobre redes neuronales y demás?
- ¿Cuál es el problema más importante actualmente sin resolver que cree que será posible resolver para 2021?
- ¿Qué sensores tiene el robot Nao?
De hecho, ¡hubo muchos cambios en Deep Learning en 2014!