Las redes neuronales están experimentando el glorioso efecto Fly Wheel .
“La premisa del volante es simple. Un volante es una rueda increíblemente pesada que requiere un gran esfuerzo para empujar. Sigue empujando y el volante genera impulso. Sigue presionando y eventualmente comienza a ayudar a girar y generar su propio ímpetu, y ahí es cuando una empresa va de buena a excelente “. – Volante de Jim Collins
La rueda volante de la red neuronal ahora gira a una velocidad masiva. Tomará muchas horas catalogar todos los pequeños y grandes empujones que le dieron su impulso. Pero, en mi humilde opinión, el mayor empujón que se destaca aparte del trabajo pionero de la teoría es simplemente esto:
- ¿Cuáles son los trabajos mejor pagados en el aprendizaje automático y qué habilidades requiere?
- ¿Cómo puedo diseñar una gran red neuronal?
- ¿Qué necesitan saber los desarrolladores de aplicaciones sobre Siri para interactuar con él?
- ¿Cuáles son las ventajas de aprender Apache Spark?
- ¿Por qué los modelos basados en árboles son robustos para los valores atípicos?
Capacidad para aprovechar grandes cantidades de datos : grandes cantidades de datos han estado disponibles para nosotros durante mucho tiempo. Pero eso no significó nada hasta que pudimos aprovecharlo. Para las redes neuronales, eso cambió aproximadamente en 2009 cuando las GPU comenzaron a acostumbrarse a entrenar redes neuronales. El primer gran éxito de Deep Learning, AlexNet en realidad menciona “Una implementación de GPU Convolución altamente optimizada” como una de sus contribuciones. Ese documento menciona “GPU” alrededor de 34 veces.