Actualmente, las GPU tienden a ser favorecidas debido a la facilidad de adquisición, pero los chips FPGA y ASIC ofrecen ventajas sobre la GPU en términos de velocidad y consumo de energía.
Si tomas el campo de la minería de bitcoins como un ejemplo, literalmente, Bitmain no puede mantenerse al día con la demanda de sus antminers, que son hashboards ASIC con un controlador lógico, todo esto debido a su rendimiento, por lo que puedo ver el aprendizaje profundo / AI avanzando en esta dirección en el futuro cercano. Google ha lanzado su propio chip de TPU que es básicamente ASIC o específico de la aplicación nuevamente para acelerar las cosas y reducir los costos, las GPU también tienden a ser voluminosas, por lo que también existe la ventaja de tamaño reducido que obtienes al usar asics.
Nosotros mismos solicitamos una cotización para diseñar y fabricar nuestro propio chip para el aprendizaje profundo, pero el más barato que encontramos fue de 80 millones de dólares, por lo que no hace falta decir que lo golpeamos y pedimos un montón de chips Avalon con la esperanza de funcionar al revés y cambiar los algoritmos para canalizar algunas tareas a través de ASICs descansa a través de gpu, restringido también con marcos D / L y estos chips Avalon tienen aceleración SHA LS, pero esperamos obtener algunos beneficios de velocidad / reducción de costos. Sin embargo, para probarlo, lo publicaremos en el blog más tarde a través de github https://github.com/Invacio o nuestro sitio web http://invacio.com.
- ¿Crees que tu trabajo actual será reemplazado por un robot / software?
- Cómo aprender a aplicar redes neuronales para la optimización
- ¿Qué se necesita para crear un chatbot?
- ¿Cómo obtengo un trabajo de nivel de entrada / independiente en el aprendizaje automático? ¿Cuál es una hoja de ruta general de lo que necesito saber y hacer para obtener un ingreso inicial en este campo?
- ¿Cómo funciona la teoría de la información integrada y cuáles son las matemáticas detrás de ella?