Sería una buena idea aprender ambos en el nivel fundamental. De esta manera sabrás cuál te queda mejor.
Por ejemplo, puede comparar los dos marcos con respecto a:
- cuán fácil es crear y entrenar redes neuronales clásicas como blackbox;
- cuán legible puede hacer su código, esto es muy importante si desea pasar menos tiempo buscando errores y entendiendo el flujo de control;
- cuán fácil es depurar, por ejemplo, usando pdb (esto es importante si está probando nuevos tipos de redes o tratando de buscar errores);
- entrenamiento y velocidad de inferencia;
- lo fácil que es controlar y visualizar su red en términos de gradientes, visualización de peso, optimización, etc.
- cuán fácil es crear nuevos tipos de redes neuronales con diferentes formas y arquitecturas;
- cuán fácil es implementar redes para aplicaciones de la vida real;
Estoy seguro de que hay más puntos de comparación, por lo que, según sus intereses, puede agregar más puntos a la lista anterior y ver cuál le conviene más.
- ¿Es el cerebro humano una gran red neuronal o está formado por muchas redes neuronales más pequeñas?
- ¿Cuándo necesitamos tener un mayor número de unidades ocultas que el número de unidades de entrada y viceversa?
- ¿Pueden los algoritmos de aprendizaje profundo predecir los resultados de los partidos deportivos?
- Andrew Ng: ¿Qué opinas sobre la memoria?
- Estoy tratando de evaluar el rendimiento del modelo (regresión). En la literatura, algunos usan RMSE y otros usan correlación. ¿Hay alguna diferencia entre ambos enfoques?
Si conoce numpy / Matlab, entonces Pytorch debería ser fácil de comenzar.