La recurrencia en las redes neuronales solo implica que hay retroalimentación involucrada en el procesamiento de una entrada (flujo), en lugar de un pase directo solo.
También se puede inyectar recurrencia en una arquitectura de otra manera convolucional, en cuyo caso la red será una CNN y una RNN, por ejemplo [1,2], por lo que estas no son ideas mutuamente excluyentes.
Supongo que esta conferencia se refiere a una arquitectura de red neuronal recurrente particular, por ejemplo, una sola capa oculta con activaciones en tándem, que bien podría ser inferior a las CNN relevantes aplicadas a la tarea (en este caso, problemas de PNL) en la literatura. De nuevo, esto es probable porque en el contexto de la PNL las personas solo han diseñado arquitecturas RNN específicamente para la predicción estructurada (por ejemplo, secuencia a secuencia) en lugar de clasificación.
- Dado lo éticamente y empáticamente incompetentes que son los humanos, ¿cuándo comenzaremos a entrenar el aprendizaje automático en grandes conjuntos de datos de decisiones éticas?
- ¿Cómo se puede aplicar el aprendizaje automático en los campos de la ingeniería química y de procesos?
- Cómo configurar las dimensiones de la capa y la conectividad en Caffe para reproducir una CNN a partir de un trabajo de investigación
- ¿Qué es la programación probabilística?
- ¿Podemos aplicar tanto la selección de características como la reducción de dimensionalidad?
Como puede ver en [1], una CNN que es simultáneamente una RNN puede ser superior a una CNN ordinaria para la clasificación en este caso en imágenes, mientras que es significativamente más barato hacer inferencia.
ACTUALIZADO:-
[1] https://arxiv.org/pdf/1612.09508…
[2] http://www.cv-foundation.org/ope…