Asegúrese de sentirse cómodo con los siguientes temas:
—Aprendizaje automático (por supuesto)
—Probabilidad / estadísticas
- ¿Qué idioma debo usar para tensorflow?
- ¿Cuál es el papel de la función de activación en una red neuronal? ¿Cómo funciona esto en un sistema de red neuronal humana?
- ¿La correlación entre dos variables cuenta como evidencia débil de un vínculo causal entre ellas?
- ¿Cuál es una explicación intuitiva de las redes residuales profundas?
- ¿Cuál es el tamaño del conjunto de datos de Cifar?
-cálculo
-mejoramiento
—Algoritmos / estructuras de datos
—Aritmética de punto fijo y punto flotante
—Arquitectura informática (especialmente jerarquía de memoria)
Una mejor preparación sería aprender sobre algunos de los algoritmos de aprendizaje automático más exitosos (regresión lineal, regresión logística, agrupamiento, PCA, etc.) y arquitecturas de redes neuronales profundas (AlexNet, ResNet, etc.). Las arquitecturas profundas en particular son donde las implementaciones ASIC probablemente serán apropiadas, ya que los algoritmos más simples pueden ejecutarse cómodamente en procesadores de propósito general. La mayoría de los ASIC de redes neuronales interesantes sobre la información que se ha publicado en los últimos años han utilizado AlexNet como modelo para implementar, por ejemplo.
Para tener una idea de estos algoritmos y arquitecturas, no leería los documentos originales en los que fueron descritos. Por lo general, el lenguaje es un poco torpe (ya que las ideas eran nuevas en el momento de la redacción del artículo, y los autores aún no habían descubierto cómo hablar de ellas de manera clara y eficiente), y las características realmente importantes y duraderas no son resaltado Una mejor fuente de conocimiento son los tutoriales y los videos.
La presentación de Bill Dally en NIPS es un excelente lugar para comenzar (Tutorial: Hardware de alto rendimiento para el aprendizaje automático – Investigación de Microsoft), aunque creo que subestima el papel de los ASIC en el futuro.