¿Dónde puedo comprar TPU para aprender el aprendizaje profundo?

Google dejó en claro que no tiene la intención de vender los TPU comercialmente. Son chips diseñados a medida (ASIC). Para construir un ASIC completamente personalizado, se necesita de $ 35M a más de $ 100M, dependiendo del tamaño del equipo de diseño, la línea de tiempo del diseño, el nodo del proceso y la complejidad del diseño. Si Google construye solo unos pocos miles de estos chips, sigue siendo un alto costo general para ellos. Cada chip costará más de 10k $.

Sin embargo, en la reciente E / S de Google, anunciaron que se podrá acceder a la segunda generación de TPU a través de la plataforma de computación en la nube de Google. Básicamente hay que alquilarlo, similar a la AWS (plataforma de aprendizaje automático de Amazon) de Amazon.

Aquí hay un enlace útil (gracias @Quora User) Vea Crear y entrenar modelos de aprendizaje automático en nuestros nuevos TPU de Google Cloud para el anuncio de Google sobre el tema.

No necesita un chip especializado para ejecutar la red neuronal. Tensorflow (marco de aprendizaje profundo de Google) se ejecuta en CPU o GPU (mucho más rápido). La aplicación típica de “aprendizaje” de aprendizaje profundo: clasificación MNIST, clasificación de texto REUTERS, etc., necesita unos minutos, una hora máxima en una computadora portátil lenta. Tome un café / vaya a almorzar durante el procesamiento y estará bien.

Si se refiere a la Unidad de procesamiento de tensor, el procesador personalizado de Google, no están a la venta. Estarán disponibles en la nube, y Google ha lanzado una ‘nube de investigación’ con 100 TPU que será de uso gratuito para los investigadores.

More Interesting

¿Puedes explicar el descenso coordinado en términos simples?

¿Cuál es la diferencia clave entre backprop y backprop truncado a través del tiempo?

Dado lo éticamente y empáticamente incompetentes que son los humanos, ¿cuándo comenzaremos a entrenar el aprendizaje automático en grandes conjuntos de datos de decisiones éticas?

Las redes neuronales se han vuelto muy populares en los últimos años, sin embargo, gran parte de la teoría se desarrolló hace 20 años. ¿Qué avances explican los éxitos recientes?

¿Qué debo aprender para el aprendizaje automático, C ++ o Python?

¿Qué son las redes neuronales, redes neuronales artificiales y redes neuronales convolucionales? ¿Cómo son diferentes el uno del otro?

¿Es un 'predictor de la siguiente palabra' que hice el aprendizaje automático o el procesamiento del lenguaje natural?

¿Debo memorizar las matemáticas y los algoritmos al aprender el aprendizaje automático y el aprendizaje profundo?

¿Qué conjuntos de datos se utilizan como puntos de referencia en los métodos de transcripción de voz / voz y qué métodos tienen los mejores resultados actuales?

¿Puedo hacer IA y aprendizaje automático sin matemáticas?

¿Cuándo y dónde se usaron por primera vez los términos 'aprendizaje profundo', 'aprendizaje automático', 'ciencia de datos'?

¿Cómo puedo comenzar el análisis de datos en un gran conjunto de datos?

¿Puede el aprendizaje automático realizar un análisis de sentimientos de una palabra clave dada de una conversación?

¿Por qué las redes neuronales artificiales son "cajas negras"?

¿Qué preguntas se pueden hacer en una entrevista sobre el proyecto de Análisis de sentimientos de Twitter?