12 GB de RAM son suficientes para la mayoría de los problemas. Considere esta [1] implementación de una red neuronal convolucional regional más rápida (Faster – RCNN), requiere al menos 3 GB de memoria de GPU. También puede construir su propio sistema de supercomputación [2] utilizando múltiples GPU Titan-X [3] para problemas mucho más grandes.
Si eso no es suficiente, puede probar la potencia bruta de la GPU para soluciones de centro de datos [4]. Y si eso no es suficiente, inicie los servidores de Google con la plataforma Google Cloud [5]. También puede usar los servicios de aprendizaje automático Microsoft Azure [6] o Amazon [7], aunque no es barato.
Depende de lo que intente resolver y a qué escala.
- ¿Qué temas de matemáticas recomienda Conner Davis a alguien interesado en el aprendizaje automático teórico para aprender en su tiempo libre?
- ¿Cuáles son los beneficios de convertir una capa totalmente conectada en una red neuronal profunda a una capa convolucional equivalente?
- ¿El sobreajuste es un problema en el aprendizaje de refuerzo profundo?
- ¿Qué estrategia usaste para resolver el juego 2048? ¿Por qué?
- ¿Qué es la precisión?
Espero que esto ayude.
Notas al pie
[1] smallcorgi / Faster-RCNN_TF
[2] Crea tu propio | NVIDIA
[3] Tarjeta gráfica TITAN X con Pascal de NVIDIA GeForce
[4] El sistema de aprendizaje profundo NVIDIA DGX-1, construido para IA
[5] Google Cloud Machine Learning a escala | Google Cloud Platform
[6] Aprendizaje automático | Microsoft Azure
[7] Amazon Machine Learning: análisis predictivo con AWS