Amazon lo admite ahora a partir del 15 de noviembre, por extracto de http://aws.amazon.com/ec2/instan…
“Instancias de GPU de clúster
Las instancias de esta familia proporcionan unidades de procesamiento de gráficos (GPU) de uso general con CPU proporcionalmente alta y un mayor rendimiento de la red para las aplicaciones que se benefician del procesamiento altamente paralelo, incluidas las aplicaciones de procesamiento de medios y procesamiento de HPC. Mientras que las instancias de computación en clúster brindan la capacidad de crear clústeres de instancias conectadas por una red de baja latencia y alto rendimiento, las instancias de GPU en clúster brindan una opción adicional para aplicaciones que pueden beneficiarse de las ganancias de eficiencia de la potencia de computación paralela de las GPU sobre lo que se puede lograr Con procesadores tradicionales. Obtenga más información sobre el uso de este tipo de instancia para aplicaciones HPC.
Instancia extra grande cuádruple GPU de clúster
22 GB de memoria
33.5 Unidades de cómputo EC2 (2 x Intel Xeon X5570, arquitectura de cuatro núcleos “Nehalem”)
2 x GPU NVIDIA Tesla “Fermi” M2050
1690 GB de almacenamiento de instancias
Plataforma de 64 bits
Rendimiento de E / S: muy alto (10 Gigabit Ethernet)
Nombre de API: cg1.4xlarge “
- ¿Por qué IBM se está centrando en el ecosistema Scala para su cadena de herramientas de IA en la nube?
- ¿Cuál es la diferencia entre contenedorización (Docker) y virtualización (VMWare, VirtualBox, Xen)?
- Cómo usar Ansible con OpenStack
- En aplicaciones como Drop box que permiten guardar de 5 a 10 GB de datos, ¿cómo se crea esa memoria virtual? Si esos son solo códigos de programa, ¿por qué no se pueden codificar a 500 GB o más? Si no, ¿de qué se trata?
- ¿Cómo puede static.com ofrecer 128 MB de RAM por $ 1.28 mientras que jelastic.servint.net ofrece lo mismo por $ 14?
Antigua respuesta al 14 de noviembre
Amazon admitirá un IaaS basado en GPU con unos pocos años como máximo. Ya han tomado medidas para admitir cargas de trabajo intensivas en cómputo / ancho de banda con la última oferta de Intel y nodos de cómputo ethernet de 10 Gb, y pasar a admitir GPU sería un próximo paso obvio (aunque ciertamente un salto de sus ofertas actuales). Realmente, esta pregunta es preguntando: ¿son las GPUs convencionales? Si lo son, entonces Amazon no estará tan lejos del soporte.
Con los gustos de Dell que ofrecen factores de forma optimizados para GPU, el uso de GPU se implementó internamente incluso en entornos relativamente convencionales, como finanzas, problemas básicos como punto flotante de doble precisión y memoria ECC ahora disponibles para GPU, se están moviendo mucho hacia la corriente principal para algunos (definitivamente no todas) aplicaciones.
Agregue a eso competidores (mucho más pequeños) a Amazon que ofrece alojamiento de GPU, es solo cuestión de tiempo antes de que Amazon haga lo mismo. Para al menos parte de la carga de trabajo intensiva de cómputo que requiere una gran cantidad de blades / capacidad de CPU, la GPU puede tener mucho sentido y el mercado que está familiarizado con las GPU estaría familiarizado con Amazon EC2.
Por último, pero no menos importante, el modelo de programación no debería ser una barrera de entrada para Amazon que implementa GPU. Si bien CUDA y OpenCL y sus respectivos patrocinadores continuarán discutiendo esto por un tiempo, el costo incremental para Amazon de admitir algunos tipos diferentes (o simplemente respaldar el más compatible) sobre su arquitectura actual no sería demasiado significativo . Si tuviéramos que mirar la historia de Amazon, admitirían algunas ofertas limitadas, pero aún muy útiles, antes de expandir esto progresivamente.
Llamo a esto como estar disponible antes de finales de 2012, con una visión exactamente nula de los planes internos de Amazon.