Me gustaría ampliar la respuesta que Roman proporcionó.
Hay dos grandes diferencias técnicas entre PyTorch y TensorFlow.
Primero, PyTorch se siente más nativo de Python que TF. Hay menos código repetitivo y se lee mucho mejor. Por otro lado, todas estas facultades TF adicionales proporcionan una experiencia de desarrollador mucho más completa que PyTorch.
- ¿Cómo podemos "entrenar" sistemáticamente los algoritmos de agrupación sobre qué combinaciones de atributos / características generan en última instancia los tipos deseados de agrupaciones?
- ¿Cómo entrenar codificadores automáticos dispersos en imágenes?
- ¿Cómo encontrar un mentor que me ayude a construir una carrera en visión por computadora y aprendizaje profundo como investigador o académico? ¿Cuál es el camino definitivo hacia este objetivo?
- En LSTM, ¿cómo calculas qué tamaño deben tener los pesos?
- Cómo usar mel-spectrogram como entrada de una CNN
En segundo lugar, TF se basa en gráficos computacionales estáticos, mientras que PyTorch usa CG dinámicos. (A veces llamado “definir y ejecutar” frente a “definir por ejecución”). Lo que significa es que con CG dinámico, puede cambiar la arquitectura de la red en función de los datos que fluyen a través de la red. Hay una manera de hacer algo similar en TF, pero su CG estático debe contener todas las ramas posibles de antemano, lo que limitará el rendimiento.
En resumen, si desea “hacer su trabajo”, use TF. Si desea investigar e intentar cualquier idea que se le ocurra, vaya a PyTorch.