No sé qué ha planeado Google, pero aquí hay algunas cosas que podría pensar:
- Mejora la arquitectura de “memoria”. Con GPU o tarjetas de cómputo, debe almacenar los resultados de las operaciones en la memoria (o caché) antes de aplicar otras operaciones. Con un ASIC puede alimentar directamente el resultado de las operaciones a las siguientes operaciones.
- Puede ajustar el número de unidades funcionales a las necesidades de un modelo específico de aprendizaje automático. Si ha diseñado una red neuronal con una estructura de capa específica, puede adaptar el ASIC de aprendizaje automático con la cantidad exacta de circuitos de multiplicación, suma, etc. y no desperdiciar silicona en los circuitos que no necesita.
- Google podría haber encontrado algo así como la raíz cuadrada inversa rápida: Wikipedia para el aprendizaje automático. La raíz cuadrada inversa rápida se aproxima a una operación compleja a través de operaciones binarias más rápidas y aparentemente no relacionadas. Google podría haber encontrado atajos similares para calcular las salidas o derivados de sus redes neuronales.
- El rendimiento de las redes neuronales podría mejorarse mediante el uso de circuitos analógicos en alguna área (los circuitos analógicos se pueden usar para resolver ecuaciones diferenciales).