¿Cómo son los FPGA mejores que la tecnología anterior en redes neuronales o IA?

Es un gran paso en rendimiento y potencia.

Google ya ha creado la Unidad de procesamiento de tensor (TPU), un ASIC personalizado creado específicamente para el aprendizaje automático y diseñado para TensorFlow.

Reclamaciones de Goolge

Llevamos más de un año ejecutando TPU dentro de nuestros centros de datos y descubrimos que ofrecen un rendimiento por orden de magnitud mejor optimizado por vatio para el aprendizaje automático. Esto es más o menos equivalente a la tecnología de avance rápido dentro de siete años en el futuro (tres generaciones de la Ley de Moore).

Los TPU ya impulsan muchas aplicaciones en Google, incluido RankBrain, utilizado para mejorar la relevancia de los resultados de búsqueda y Street View, para mejorar la precisión y calidad de nuestros mapas y navegación. AlphaGo fue impulsado por TPU en los partidos contra el campeón mundial de Go, Lee Sedol, lo que le permite “pensar” mucho más rápido y mirar más adelante entre movimientos.

Hay una startup llamada Nervana Systems que construye un chip especializado para el aprendizaje profundo, fue fundada por Naveen Rao, el ex jefe de Qualcomm.

Si está buscando implementar Deeplearning en FPGA https://www.altera.com/solutions… este enlace sería útil 🙂

Consulte este documento de microsoft https://www.microsoft.com/en-us/… para obtener información técnica sobre la implementación de CNN en FPGA