A diferencia de otros marcos de Deep Learning, el DSSTNE de Amazon parece haber sido desarrollado para el caso de uso de la creación de recomendaciones. Caffe está sintonizado hacia el procesamiento de imágenes a través de Convolution Networks. Kaldi está sintonizado para el reconocimiento de voz. Antorcha, TensorFlow y CNTK tienen un propósito más general en el soporte para redes totalmente conectadas, CNN y diversos grados de soporte para RNN. Sin embargo, DSSTNE parece admitir solo redes completamente conectadas. Otra desviación de otros marcos es que DSSTNE usa archivos de configuración (como Caffe) en lugar de código para componer un NN.
La afirmación de Amazon es que DSSTNE está sintonizado para soportar redes mucho más grandes a través de su soporte de conjuntos de datos dispersos y capacitación paralela modelo. Utiliza GPU basadas en CUDA y ha ajustado los núcleos para admitir el escaso cálculo. Emplea OpenMPI por sus capacidades de cálculo distribuido. La afirmación es que su marco es 2.1 veces más rápido en comparación con una implementación de Tensorflow. Sin embargo, la afirmación más interesante es que los núcleos de GPU dispersos permiten que se calculen matrices mucho más grandes en una GPU en comparación con otros marcos no dispersos.
En conclusión, DSSTNE es probablemente un buen marco para usar para construir grandes NN para recomendaciones, sin embargo, está lejos de ser un marco DL de propósito general.
- ¿Cuál es la mejor base de datos para almacenar vectores de características de gran tamaño para su posterior recuperación y calcular las mediciones de distancia para la coincidencia de similitudes?
- ¿Qué es un uso subestimado del aprendizaje automático?
- ¿Por qué la función sigmoidea rara vez se usa en capas ocultas recientemente?
- ¿Cómo debo explicar el modelo matemático de la red neuronal con ejemplos adecuados?
- ¿Alguien ha intentado sitios web de IA que se diseñen ellos mismos? ¿Cuál es la diferencia entre los sitios web creados por humanos y por IA?