¡Enorme!
El escalado continuo de la tecnología impulsado por la innovación en la arquitectura y la programación de aplicaciones ha permitido extraer un rendimiento abrumador de un chip dado con un presupuesto de energía específico. Esta capacidad de cómputo superior combinada con el revigorizado interés en desplegar IA en diferentes dominios tecnológicos y socioeconómicos, naturalmente ha dado lugar a un derroche sin precedentes en el desarrollo de chips específicos de IA en los últimos años. Como resultado, la computación neuromórfica recientemente ha ganado mucha tracción, tanto en la industria como en la academia.
Bajo la supervisión del famoso científico informático Norman Jouppi, Google ha desarrollado la Unidad de procesamiento de tensor (TPU), que es la arquitectura del hardware principal que facilita múltiples servicios centrales de Google viz., Google Search, Street View, Google Photos y Google Translate. TPU es un chip ASIC personalizado destinado a acelerar las aplicaciones de redes neuronales al tiempo que ofrece un orden de magnitud de mejor rendimiento y eficiencia energética que las CPU y GPU de última generación. El análisis de rendimiento en profundidad del TPU se puede encontrar en su documento ISCA 2017.
- ¿Por qué el aprendizaje automático, las redes neuronales y otros enfoques de IA, por ejemplo, no se usan más ampliamente en las predicciones del mercado de valores?
- ¿Hay alguna diferencia entre el algoritmo de retropropagación utilizado en la etapa de ajuste fino del autoencoder y el algoritmo típico de retropropagación?
- ¿Cómo puedo comparar diferentes arquitecturas de redes neuronales sin entrenarlas durante semanas? ¿Hay alguna forma práctica de verificar si las redes merecen la capacitación completa o no?
- Cómo elegir un tema de tesis doctoral en aprendizaje profundo
- ¿Cómo se entrenan las redes estocásticas generativas?
Siguiendo la tendencia, Intel ha desarrollado Loihi , un chip neuromórfico de autoaprendizaje, que imita cómo funciona el cerebro. Loihi es autónomo y se adapta al tiempo real combinando entrenamiento e inferencia altamente flexible en un solo chip. Está fabricado con la tecnología de proceso de 14 nm de Intel y admite varios paradigmas de aprendizaje, incluido el aprendizaje supervisado, no supervisado y de refuerzo.
Además de estas innovaciones significativas en la industria, la academia también ha abordado muchos problemas de investigación que surgen en chips específicos de IA. Por ejemplo, se han propuesto varias arquitecturas aceleradoras de DNN durante la última media década para mejorar la eficiencia de la capacitación e inferencia de DNN mientras se atiende a una creciente complejidad de las cargas de trabajo de comunicación de datos y en chip. Se ha propuesto una arquitectura especializada de red en chip para acercar la comunicación y la computación para evitar referencias costosas y frecuentes de memoria fuera del chip en el contexto de DNN. La investigación en seguridad de hardware también ha encontrado una nueva dimensión con la creciente adopción de IA. Por ejemplo, los autos inteligentes habilitados para IA se están volviendo comunes donde la seguridad es de suma importancia. Los investigadores han comenzado a investigar las oportunidades y posibles ramificaciones de lanzar ataques de fallas en chips DNN.
En conclusión, la adopción a gran escala de la IA ha generado una investigación colaborativa que abarca la arquitectura de computadoras, el diseño de circuitos de baja potencia, la biología y el aprendizaje automático. El futuro de la informática estará definido por estas áreas con un impacto tangible en varias compañías de diseño de chips.