Idealmente, podrían combinar todos los estándares para la representación del conocimiento con los métodos de aprendizaje automático más nuevos. La representación y el razonamiento se basan en la extracción e inferencia de características antes de que la información sea reificada y puesta en formas accesibles, por ejemplo, relacionales. Los enfoques están basados en modelos o sin modelos. Cada arquitectura de base de datos tiene sus propios servicios que se pueden encontrar en las especificaciones. Recientemente han comenzado a agregar más análisis de imágenes a gran escala al discurso.
Los sistemas utilizan GPU y FPGA para el procesamiento. También pueden interactuar con cualquier cosa en el centro de datos o en el almacenamiento en la nube que sea accesible, rápido y consuma menos energía que antes, posiblemente yendo a renovables. Nvidia también aparece aquí y para vehículos autónomos.
Ver también:
- Cómo comenzar a aprender inteligencia artificial si quiero hacer un doctorado. En eso
- ¿Cuál es este alboroto acerca de que los robots de AI de Facebook se hablan en un lenguaje codificado?
- ¿Cuál será el primer dispositivo en pasar la prueba de Turing?
- ¿Cuál es la diferencia más esencial entre humanos y máquinas? ¿Dónde trazamos la línea entre humanos y máquinas? ¿Qué habilidades necesita una máquina para ser considerada tan inteligente como un ser humano?
- ¿Cuál es la investigación futura sobre la extracción de características utilizando la teledetección satelital?
IBM, Intel, Google, Microsoft prepara hardware de próxima generación para IA
Supercomputadoras AI: Microsoft Oxford, IBM Watson, Google DeepMind, Baidu Minwa
Construyendo máquinas que aprenden y piensan como las personas, Lake et al, 2016 (PDF)
¿Cómo los sistemas generales de inteligencia artificial como los de Deepmind persisten “recuerdos” a largo y corto plazo respectivamente?
De predicción y política