En visión por computadora, la arquitectura profunda presentada por Krizhevsky (2012; Page on Toronto) fue definitivamente un gran avance en la clasificación de imágenes. El grupo de Toronto ha entrenado la arquitectura profunda y ganó el desafiante concurso de reconocimiento visual ImageNet a gran escala 2012 (ILSVRC2012) por un margen significativo. En efecto, muchos laboratorios de visión por computadora se interesaron en el aprendizaje profundo.
Como consecuencia de la competencia de reconocimiento visual ImageNet a gran escala 2013 (ILSVRC2013), casi todos los grupos estaban utilizando arquitecturas profundas con resultados espectaculares que alcanzaron aproximadamente el 90% de precisión (reconocimiento de los 5 mejores) mediante los mejores métodos (reconocimiento, localización y detección integrados mediante redes convolucionales )
El segundo avance ha ocurrido recientemente en la tarea de detección de objetos con una arquitectura profunda [1311.2524] Jerarquías de características ricas para la detección precisa de objetos y la segmentación semántica. La arquitectura propuesta ha superado significativamente el estado de la técnica anterior en la detección de objetos (Modelos de piezas deformables discriminadamente entrenados (Versión 5)) y ha cambiado el juego en el campo (Un cambio sísmico en la detección de objetos).
- Redes neuronales artificiales: ¿por qué utilizamos la función softmax para la capa de salida?
- ¿Sería posible convertir las radiaciones capturadas por una cámara infrarroja o térmica en luz visible en la postproducción a través de IA / computación en la nube?
- ¿Puede funcionar una economía futura en la que las personas sean propietarias de la fuerza laboral robótica / IA y la alquilen a las grandes corporaciones? Ya sea individualmente o en grupos.
- Los Upanishads: Si se supone que la conciencia está presente en todas partes, ¿por qué no los robots son conscientes?
- ¿Es una red neuronal de alimentación de una sola capa equivalente a un algoritmo de regresión logística?
Desde el lado del modelaje, me gusta la idea de máximo rendimiento (página en Arxiv). Espero ver los resultados de este tipo de redes en otros conjuntos de datos. También se presentaron recientemente las redes estocásticas profundas [1306.1091] entrenables por Backprop y creo que podemos esperar más innovaciones en esa línea.
Finalmente, se han publicado pocos artículos que analizan redes neuronales. En esta categoría, creo que [1312.6199] Las propiedades intrigantes de las redes neuronales son interesantes (en el proceso de revisión) junto con algunos documentos que trabajan en la visualización de redes neuronales (http://www.matthewzeiler.com/pub… y Page on Buey).