¿Cómo cambiará la TPU de Google el mercado de CPU + GPU? ¿Cómo responderán los fabricantes de chips a este cambio?

No mucho, y probablemente podría incluir una nueva característica o dos en sus diseños de procesador si sienten la necesidad.

Uno podría leer esta cosa de la Unidad de Procesamiento de Tensor (TPU) en la adquisición de Altera por parte de Intel (compañía) y el posterior anuncio de incluir una sección de matriz de puerta programable de campo (FPGA) en algunos de sus modelos de procesador x86. En principio, los FPGA se pueden configurar para realizar casi cualquier tipo de cálculo dentro del límite de recuento de compuertas del dispositivo; la pregunta es si algo que podría soplar en un FPGA sería más óptimo que implementarlo en la Arquitectura del conjunto de instrucciones x86 o en el Propósito general GPU (CUDA, OpenCL). Según lo que he leído, Google examinó los FPGA y decidió que no eran lo suficientemente rápidos y que un chip personalizado (un circuito integrado de aplicación específica (ASIC)) era el mejor enfoque.

Hasta cierto punto, lo que esto realmente pregunta es si el tipo particular de Redes Neuronales Artificiales que supuestamente es bueno para ejecutar el TPU de Google se convertirá en la forma dominante de cómputo de propósito general (que es lo que requeriría / inspiraría a todos los otros diseñadores de procesadores a reaccionar) ), y mi reacción es …

mmm, probablemente no.

Hemos visto una variante de esta película antes: Bitcoin Mining comenzó en procesadores de propósito general, se trasladó a GPU y luego a ASIC, muy similar a lo que hacen estos TPU por su problema de cálculo optimizado. Los diseñadores de procesadores no han prestado mucha atención.

Sin embargo, estoy seguro de que las empresas de fabricación de semiconductores (por ejemplo, Taiwan Semiconductor Manufacturing Company (TSMC), United Microelectronics Corporation (UMC), Semiconductor Manufacturing International Corporation (SMIC), GlobalFoundries) están contentas por los chips de fabbing comerciales adicionales de cualquier diseño que alguien quiera .

Ok, la verdad sea dicha, no sabía qué era este tpu. Después de haber realizado una investigación ligera sobre esto (léase: google … usé google …) por lo que puedo decir, Google está tratando de ingresar al mercado de aprendizaje profundo. ¿Qué significa esto para los equipos azul, verde, rojo / naranja?

No mucho.

Por lo que vi, esto solo salió el año pasado, lo que significaría que solo se está viendo la implementación en las instalaciones de Google … instalaciones donde los trabajadores todavía usan CPU Intel / AMD. Intel está más preocupado por AMD Ryzen que por Google. Del mismo modo, Nvidia está realmente nerviosa por AMD Vega, mientras que AMD está mordiendo sus uñas sobre Vega, así como también cómo funcionarán sus tarjetas 5 × 0.

¿Esperar lo? Solo respondí sobre el mercado de computadoras privadas en general y los juegos en particular …? Mierda … bueno …

Mi opinión sincera es que las empresas que usan CPU / gpu continuarán haciéndolo en términos de optimización para su carga de trabajo. Google tpu puede sacudir el mercado en términos de cosas que se beneficiarían de él; Sin embargo, dudo que los 3 grandes vayan a sudar demasiado sobre Google entrando en el mercado de hardware.

More Interesting

¿El procesamiento del lenguaje natural reemplaza la búsqueda elástica?

¿Cómo creo un conjunto de datos como MNIST para reconocer caracteres de otro idioma? Tengo un conjunto de datos como una carpeta de imágenes. ¿Cómo uso eso en Tensorflow?

Cómo aprender a convertirse en un experto en aprendizaje profundo

Si, en el futuro, los robots / IA se vuelven comunes en los hogares, ¿cuál es el lenguaje de programación más probable en el que se escribirán?

¿Cuáles son algunos métodos de clasificación de series temporales?

¿En qué se diferencia el aprendizaje profundo del perceptrón multicapa?

PCA, 2DPCA vs PCA multilineal: ¿Por qué las imágenes se vectorizan antes de realizar PCA, ICA o LDA, etc.? ¿Por qué no simplemente concatenar imágenes 2D en una matriz?

¿Qué es un componente principal y por qué se llama así?

En cuanto al aprendizaje automático o el aprendizaje profundo, ¿existe el fenómeno de que el modelo funciona bien pero el diseñador no puede explicar la razón?

¿Cuáles son los algoritmos de aprendizaje automático adecuados para Big Data o análisis en tiempo real?

¿Cuáles son los mejores cursos o referencias para la probabilidad de aprendizaje y las estadísticas para el aprendizaje automático?

¿En qué campos todavía no se ha aplicado el aprendizaje automático (o está menos explorado)?

¿Cuál es el mejor modelo de predicción de la siguiente palabra en R?

¿Cuál es el mejor libro para aprender el pensamiento algorítmico?

¿Cuál es la conexión entre un modelo probabilístico y un gráfico en un modelo gráfico probabilístico?