En 2012, Google creó una red neuronal para detectar gatos en las fotos. Usaron 16000 CPU dispersas en 1000 computadoras. ¡Qué gran proyecto!
Por supuesto, atrajo la atención de los medios: Google X crea una ‘red neuronal’ de 16,000 núcleos para el aprendizaje automático independiente
Pero solo Google podría asumir un proyecto de esta escala, por lo que las redes neuronales permanecieron impopulares en la academia.
- ¿Cuál es la mejor arquitectura de red neuronal para procesar video?
- ¿Cuál es la diferencia entre los métodos de gradiente de políticas y los métodos de actor crítico?
- ¿Qué debe saber un profesional de aprendizaje profundo para un hackathon?
- ¿Existe alguna justificación para usar características explícitas de usuario / elemento en la recomendación de MF?
- ¿Qué tecnologías existen actualmente para hacer matemáticas en grandes conjuntos de datos?
Sin embargo, algún tiempo después, Stanford y Nvidia se unieron y produjeron una red neuronal de la misma escala, pero utilizando solo un puñado de GPU: la red neuronal NVIDIA GPU hace que el observador de gatos de Google se vea tonto.
Esto fue posible gracias a un gran avance durante la competencia anual de visión por computadora de Stanford de 2012, cuando un investigador llamado Alex Krizhevsky superó la precisión de clasificación anterior por un margen significativo utilizando GPU para entrenar una CNN.
Aunque los avances teóricos llegaron hace años y años, los resultados prácticos solo se observaron en 2012 cuando se demostró que las GPU eran formidables formadores de redes neuronales.