Lo leí y no aprendí nada nuevo.
Las limitaciones señaladas ya son bien conocidas. Los experimentos son una broma: sí, los DNN son datos ineficientes, lo cual es algo malo, ¡pero esa no es una idea nueva! Y sí, dado que realmente no entendemos por qué los DNN logran alcanzar óptimos locales utilizables cuando lo hacen (por ejemplo, para tareas de reconocimiento de imágenes), es completamente posible que nos topemos con las tareas en las que el panorama de optimización se ve bastante diferente, ¡y ya no podremos alcanzar buenas óptimas locales!
Ya hubo discusiones interesantes sobre los intentos de Nvidia de aprender un sistema de conducción autónoma de extremo a extremo, con Amnon Shashua señalando las debilidades. Aprendí mucho más de esas discusiones.
- ¿Qué tan lejos estamos de usar el reconocimiento de voz como interfaz de usuario en un teléfono para cerca del 100% de todas las funciones (sin entradas de teclado o deslizamiento)?
- ¿Qué 2 cursos entre estructuras de datos y algoritmos, diseño de software, introducción a IA, aprendizaje automático y sistemas operativos, debo elegir?
- ¿Cuál es el mejor título de maestría para obtener hoy en inteligencia artificial, aprendizaje automático, etc.?
- Cómo decidir el tamaño de la muestra para el aprendizaje automático con datos de series temporales
- ¿Por qué ha sido tan efectivo OpenAI?
Aquí hay una página de Quora con enlaces a los comentarios de Shashua sobre el trabajo de Nvidia:
El CTO de Mobileye dice que las redes neuronales profundas de extremo a extremo, como NVIDIA, no funcionarán para automóviles autónomos. ¿Tiene razón?