Bueno, ya estamos viendo a Siri y Cortana integrados en los sistemas operativos de escritorio y móviles. Creo que es poco tiempo antes de que algunas de las plataformas de desarrollo de ML como Torch o Caffe vengan con algunos paquetes de distribuciones de Linux.
La pregunta interesante (que no es técnica en absoluto) es si algún tipo de API de aceleración computacional se estandariza; desafortunadamente no hay escritura similar a Java una vez ejecutada en cualquier lugar en la realidad, aunque CUDA, OpenCL y AMP afirman que sí. Intel, nVidia y AMD tienen en juego demasiado dinero de hardware para acordar resolver sus diferencias.
Quizás una analogía razonable son los sistemas de ventanas: cada sistema operativo orientado al usuario debe tener uno, pero no están estandarizados de ninguna manera particularmente útil. HTML / CSS es lo más cercano que tenemos, pero ya casi nadie le escribe directamente, y cada plataforma tiene muchas capas de software entre HTML y hardware.
- ¿Hay alguna manera de asegurarse de que la red neuronal sea factible para un problema?
- ¿Cómo se puede comenzar a desarrollar un bot de chat utilizando el aprendizaje automático y el procesamiento del lenguaje natural desde cero?
- ¿Cuáles son algunas buenas áreas de investigación para abordar en Game Theory?
- ¿Qué bibliotecas de OCR tienen en cuenta la ortografía de una palabra para predecir los caracteres y cómo lo hacen?
- ¿Alguna vez la IA ha tenido tendencias suicidas?
En última instancia, AI / ML tiene un nivel aún más alto que los sistemas de ventanas: creo que la integración con el sistema operativo será más una cuestión de conveniencia comercial que de necesidad técnica.