Tu pregunta es vaga. Todos los factores que mencionó están relacionados con la velocidad que puede esperar, pero dónde es exactamente el punto de inflexión después del cual el beneficio de la GPU supera su sobrecarga es difícil de cuantificar. Como puede ver, ha mencionado al menos 5 factores (variables), si realiza una búsqueda exhaustiva, puede trazar un límite de decisión entre “CPU más rápido” frente a “GPU más rápido”, pero probablemente sea una exageración si solo está siendo curioso.
Para tener una idea aproximada, le sugiero que configure un marco de aprendizaje profundo (Caffe, Keras, Theano, Tensorflow, etc.), ejecute una demostración y véalo usted mismo. Los datos de imagen son un buen punto de partida ya que la dimensión de datos inicial es alta.
Mi experiencia es que para cualquier cosa no trivial, la aceleración de la GPU siempre es enorme. Para 256 * 256 imágenes y una AlexNet estándar, el tiempo de procesamiento promedio de cada imagen es aproximadamente 50 ~ 100 veces más rápido en una GPU, es decir, 1 hora frente a 2 días completos.
- ¿Cuáles son algunas buenas ideas de proyectos en el área de análisis / predicción del mercado de valores utilizando Bayes ingenuo?
- ¿Puede Quora generar un patrón para el futuro de las personas con sus respuestas y preguntas?
- Tengo un conjunto de datos con una combinación de datos cualitativos y cuantitativos, ¿cómo puedo inferir una relación o sensibilidad entre las columnas?
- ¿Es posible generar datos de expresión genética artificial? Las imágenes a veces se pueden perturbar para aumentar el tamaño de las muestras con fines de aprendizaje automático.
- ¿Pueden las redes neuronales profundas resolver problemas NP-Hard?