Google dejó en claro que no tiene la intención de vender los TPU comercialmente. Son chips diseñados a medida (ASIC). Para construir un ASIC completamente personalizado, se necesita de $ 35M a más de $ 100M, dependiendo del tamaño del equipo de diseño, la línea de tiempo del diseño, el nodo del proceso y la complejidad del diseño. Si Google construye solo unos pocos miles de estos chips, sigue siendo un alto costo general para ellos. Cada chip costará más de 10k $.
Sin embargo, en la reciente E / S de Google, anunciaron que se podrá acceder a la segunda generación de TPU a través de la plataforma de computación en la nube de Google. Básicamente hay que alquilarlo, similar a la AWS (plataforma de aprendizaje automático de Amazon) de Amazon.
Aquí hay un enlace útil (gracias @Quora User) Vea Crear y entrenar modelos de aprendizaje automático en nuestros nuevos TPU de Google Cloud para el anuncio de Google sobre el tema.
- ¿Cómo puede llevar a cabo experimentos y compararlos con otros algoritmos en la investigación de la visión por computadora (detección de objetos, reconocimiento, seguimiento, etc.)?
- ¿Qué son las redes amplias?
- ¿Qué son las redes neuronales profundas?
- ¿Es la informática de alto rendimiento un conocimiento esencial para el aprendizaje profundo dado que se trata de una gran red neuronal?
- ¿Cuánto importa el aprendizaje automático en ciencia de datos?