Hubo una variedad de artículos interesantes en NIPS. La extensión a las redes adversarias fue particularmente prominente. DeepMath es realmente emocionante, ya que es la primera vez que se utilizan redes profundas para probar teoremas a gran escala.
Aquí hay algunos documentos de una larga lista de documentos muy interesantes presentados este año en NIPS. Definitivamente más de 10 🙂
¡Disfrutar!
- ¿Cómo se eligieron las palabras sesgo y varianza (Machine Learning)?
- ¿Qué tipo de big data se genera desde internet de las cosas? ¿Cómo recopilo esos datos? ¿Puedo aplicar el aprendizaje automático para encontrar patrones en los datos?
- ¿Cuál es el mejor clasificador HOG de detección de peatones para descargar?
- ¿Cuál es la maldición de la dimensionalidad?
- Cómo generar una oración gramaticalmente correcta y completa usando un número dado de palabras
Toma de decisiones humanas en tiempo limitado
Aprendiendo un espacio latente probabilístico de formas de objetos a través del modelado generativo-adversario 3D
Red neuronal convolucional de impulso incremental para el reconocimiento de la unidad de acción facial
Aprendizaje de refuerzo estructurado en árbol para la localización secuencial de objetos
Ataques a ciegas contra aprendices de máquinas
Autoencoder Variacional para Aprendizaje Profundo de Imágenes, Etiquetas y Subtítulos
Aprendiendo el número de neuronas en redes profundas
DeepMath – Modelos de secuencia profunda para la selección de premisas
Entrenamiento óptimo adaptativo del comportamiento animal.
Aprendizaje métrico profundo mejorado con objetivo de pérdida de pares N de varias clases
PCA correlacionada: análisis de componentes principales cuando los datos y el ruido están correlacionados
Redes neuronales doblemente convolucionales
PerforatedCNNs: Aceleración a través de la eliminación de convoluciones redundantes
Red neuronal alternativa profunda: explorar los contextos lo antes posible para el reconocimiento de la acción
Aprendizaje de los aprendices de un disparo
Redes de separación de dominios
Aprender qué y dónde dibujar
Profesor Forcing: un nuevo algoritmo para entrenar redes recurrentes
Adaptive Smoothhed Online Multi-Task Learning
Aprendiendo a aprender por gradiente descendente por gradiente descendente
Construcción codiciosa
Aprendizaje cooperativo de refuerzo inverso
Optimización de precios a gran escala a través del flujo de red
CliqueCNN: Aprendizaje ejemplar profundo sin supervisión
Un marco no generativo y relajaciones convexas para el aprendizaje no supervisado
Un modelo probabilístico de toma de decisiones sociales basado en la maximización de recompensas
Modelos de forma generativa: reconocimiento y segmentación de texto conjunto con muy pocos datos de entrenamiento
Generación de imagen condicional con decodificadores PixelCNN