Es difícil decir cuáles son las próximas tendencias. La tendencia actual es un cierto grado de diversificación de arquitecturas. Dado que construir fabs es tremendamente caro hoy en día, el truco barato de esperar 2 años para obtener el doble de CPUs rápidas ya no funciona. Entonces: mejor paralelice su código y diversifique las arquitecturas utilizadas. Implemente de forma paralela a los datos y use la vectorización, se beneficiará con cualquier arquitectura. Acceda a hardware especializado, siempre que sea posible: GPGPU, XEON PHI, muchos ARM de puntaje, más vectorización como en SX-Aurora con sus vectores de 16k de ancho o FPGA, todo esto conduce a configuraciones menos homogéneas e “inspira” o nos obliga a más heterogéneos paradigmas de programación
El conocimiento de inteligencia artificial no es necesario, al final, obtener un alto rendimiento de ML hoy en día se reduce principalmente al uso de bibliotecas de álgebra lineal altamente optimizadas.
- ¿Qué tan cerca estamos de desarrollar una IA de propósito general?
- ¿Qué tipos de errores son más comunes para los PLC? ¿Cómo se encuentran y eliminan sistemáticamente?
- ¿Por qué la inducción es más omnipresente que cualquier otra técnica de prueba en informática y lógica matemática?
- ¿El fragmentación no es tan popular o más difícil con las bases de datos relacionales / SQL?
- ¿CS es fácil o difícil?