* A2A *
Respuesta corta: sí
Para elaborar, debe comprender que cualquier red neuronal en cualquier dato es básicamente un grupo de multiplicaciones matriciales intercaladas con no linealidades como ReLU o tanh ().
- Como cuerpo técnico, ¿cómo se concilia el hecho de estar basado en datos, abrazar la diversidad de la fuerza laboral y contratar a los mejores?
- ¿Cuáles son las aplicaciones del tensor en estadística y aprendizaje automático?
- ¿Podemos usar GridSearchCV () en CountVectorizer () cuando usamos modelos scikit-learn en datos de texto, o la búsqueda en cuadrícula solo se puede ejecutar en los modelos predictivos?
- ¿Por qué es difícil entrenar un modelo de aprendizaje automático de forma incremental, en tiempo real?
- Cómo implementar el aprendizaje automático en una aplicación de Android
Por lo tanto, está buscando realizar las mismas operaciones de coma flotante en filas, columnas o incluso toda la matriz (o tensor). Las GPU son básicamente muchas CPU menos potentes (sin puertas lógicas, por ejemplo) juntas en una tarjeta con memoria compartida. Por lo tanto, cualquier cálculo que tenga una aplicación repetida de la misma operación se acelera.
Cuando se entrena NN superficial con datos de baja dimensión, el alcance de la aceleración puede ser pequeño en términos de segundos porque las CPU modernas tienen un soporte limitado para operaciones paralelas (operaciones vectoriales). Sin embargo, definitivamente no es cero.