¿Cuál es el alcance de AI / ML en la arquitectura de la computadora?

¡Enorme!

El escalado continuo de la tecnología impulsado por la innovación en la arquitectura y la programación de aplicaciones ha permitido extraer un rendimiento abrumador de un chip dado con un presupuesto de energía específico. Esta capacidad de cómputo superior combinada con el revigorizado interés en desplegar IA en diferentes dominios tecnológicos y socioeconómicos, naturalmente ha dado lugar a un derroche sin precedentes en el desarrollo de chips específicos de IA en los últimos años. Como resultado, la computación neuromórfica recientemente ha ganado mucha tracción, tanto en la industria como en la academia.

Bajo la supervisión del famoso científico informático Norman Jouppi, Google ha desarrollado la Unidad de procesamiento de tensor (TPU), que es la arquitectura del hardware principal que facilita múltiples servicios centrales de Google viz., Google Search, Street View, Google Photos y Google Translate. TPU es un chip ASIC personalizado destinado a acelerar las aplicaciones de redes neuronales al tiempo que ofrece un orden de magnitud de mejor rendimiento y eficiencia energética que las CPU y GPU de última generación. El análisis de rendimiento en profundidad del TPU se puede encontrar en su documento ISCA 2017.

Siguiendo la tendencia, Intel ha desarrollado Loihi , un chip neuromórfico de autoaprendizaje, que imita cómo funciona el cerebro. Loihi es autónomo y se adapta al tiempo real combinando entrenamiento e inferencia altamente flexible en un solo chip. Está fabricado con la tecnología de proceso de 14 nm de Intel y admite varios paradigmas de aprendizaje, incluido el aprendizaje supervisado, no supervisado y de refuerzo.

Además de estas innovaciones significativas en la industria, la academia también ha abordado muchos problemas de investigación que surgen en chips específicos de IA. Por ejemplo, se han propuesto varias arquitecturas aceleradoras de DNN durante la última media década para mejorar la eficiencia de la capacitación e inferencia de DNN mientras se atiende a una creciente complejidad de las cargas de trabajo de comunicación de datos y en chip. Se ha propuesto una arquitectura especializada de red en chip para acercar la comunicación y la computación para evitar referencias costosas y frecuentes de memoria fuera del chip en el contexto de DNN. La investigación en seguridad de hardware también ha encontrado una nueva dimensión con la creciente adopción de IA. Por ejemplo, los autos inteligentes habilitados para IA se están volviendo comunes donde la seguridad es de suma importancia. Los investigadores han comenzado a investigar las oportunidades y posibles ramificaciones de lanzar ataques de fallas en chips DNN.

En conclusión, la adopción a gran escala de la IA ha generado una investigación colaborativa que abarca la arquitectura de computadoras, el diseño de circuitos de baja potencia, la biología y el aprendizaje automático. El futuro de la informática estará definido por estas áreas con un impacto tangible en varias compañías de diseño de chips.

Como se define actualmente, AI y ML son solo algoritmos. Dado que cada computadora está “Turing completa”, no se necesitan cambios para NINGÚN algoritmo.

More Interesting

Cómo implementar una capa de deconvolución con los mismos valores de peso de la capa de convolución anterior para una red neuronal convolucional

¿Cuáles son algunos ejemplos de inteligencia artificial en sitios web?

¿Qué lenguaje de programación se usa para el aprendizaje automático?

¿Las GPU seguirán dominando la inteligencia artificial y el aprendizaje automático, aumentando el valor de compañías como Nvidia y AMD, o los chips especializados como los de Graphcore se harán cargo?

¿Cuál es la función [math] \ Psi [/ math] en esta diapositiva?

¿Por qué está disminuyendo el número de concursos públicos de Kaggle con premios en efectivo?

¿Se pueden mezclar variables categóricas y continuas en una red neuronal simple?

¿Cuál es la relación entre el análisis semántico latente / indexación, SVD y TF-IDF en la minería de texto?

Cómo usar la red neuronal

¿Cuáles son los algoritmos de aprendizaje profundo que pueden corregir los errores de reconocimiento óptico de caracteres (OCR)?

Desde la perspectiva de la ciencia de datos, ¿qué salió mal al predecir las elecciones presidenciales de 2016 en los Estados Unidos?

¿Podría una red neuronal aproximarse a un sistema de ecuaciones diferenciales ordinarias y parciales?

¿Cuáles son las principales aplicaciones potenciales para un cordón neural? ¿Hay algún peligro relacionado con el uso de dicha tecnología?

¿Alguien ha encontrado un análisis matemáticamente riguroso de la unidad LSTM?

Cómo construir la matriz del núcleo para un polinomio de grado finito