¿Cuáles son tus artículos favoritos de NIPS 2016?

Hubo una variedad de artículos interesantes en NIPS. La extensión a las redes adversarias fue particularmente prominente. DeepMath es realmente emocionante, ya que es la primera vez que se utilizan redes profundas para probar teoremas a gran escala.

Aquí hay algunos documentos de una larga lista de documentos muy interesantes presentados este año en NIPS. Definitivamente más de 10 🙂

¡Disfrutar!

Toma de decisiones humanas en tiempo limitado

Aprendiendo un espacio latente probabilístico de formas de objetos a través del modelado generativo-adversario 3D

Red neuronal convolucional de impulso incremental para el reconocimiento de la unidad de acción facial

Aprendizaje de refuerzo estructurado en árbol para la localización secuencial de objetos

Ataques a ciegas contra aprendices de máquinas

Autoencoder Variacional para Aprendizaje Profundo de Imágenes, Etiquetas y Subtítulos

Aprendiendo el número de neuronas en redes profundas

DeepMath – Modelos de secuencia profunda para la selección de premisas

Entrenamiento óptimo adaptativo del comportamiento animal.

Aprendizaje métrico profundo mejorado con objetivo de pérdida de pares N de varias clases

PCA correlacionada: análisis de componentes principales cuando los datos y el ruido están correlacionados

Redes neuronales doblemente convolucionales

PerforatedCNNs: Aceleración a través de la eliminación de convoluciones redundantes

Red neuronal alternativa profunda: explorar los contextos lo antes posible para el reconocimiento de la acción

Aprendizaje de los aprendices de un disparo

Redes de separación de dominios

Aprender qué y dónde dibujar

Profesor Forcing: un nuevo algoritmo para entrenar redes recurrentes

Adaptive Smoothhed Online Multi-Task Learning

Aprendiendo a aprender por gradiente descendente por gradiente descendente

Construcción codiciosa

Aprendizaje cooperativo de refuerzo inverso

Optimización de precios a gran escala a través del flujo de red

CliqueCNN: Aprendizaje ejemplar profundo sin supervisión

Un marco no generativo y relajaciones convexas para el aprendizaje no supervisado

Un modelo probabilístico de toma de decisiones sociales basado en la maximización de recompensas

Modelos de forma generativa: reconocimiento y segmentación de texto conjunto con muy pocos datos de entrenamiento

Generación de imagen condicional con decodificadores PixelCNN