¿Qué tan bien crees que AI y ML se integrarán con los sistemas operativos convencionales? Mirando el estado actual de la investigación, ¿estamos cerca de un gran avance?

Bueno, ya estamos viendo a Siri y Cortana integrados en los sistemas operativos de escritorio y móviles. Creo que es poco tiempo antes de que algunas de las plataformas de desarrollo de ML como Torch o Caffe vengan con algunos paquetes de distribuciones de Linux.

La pregunta interesante (que no es técnica en absoluto) es si algún tipo de API de aceleración computacional se estandariza; desafortunadamente no hay escritura similar a Java una vez ejecutada en cualquier lugar en la realidad, aunque CUDA, OpenCL y AMP afirman que sí. Intel, nVidia y AMD tienen en juego demasiado dinero de hardware para acordar resolver sus diferencias.

Quizás una analogía razonable son los sistemas de ventanas: cada sistema operativo orientado al usuario debe tener uno, pero no están estandarizados de ninguna manera particularmente útil. HTML / CSS es lo más cercano que tenemos, pero ya casi nadie le escribe directamente, y cada plataforma tiene muchas capas de software entre HTML y hardware.

En última instancia, AI / ML tiene un nivel aún más alto que los sistemas de ventanas: creo que la integración con el sistema operativo será más una cuestión de conveniencia comercial que de necesidad técnica.

La IA tiene un buen papel en la seguridad de los sistemas operativos. Puede tomar decisiones sobre qué hacer si ML detecta un comportamiento anómalo. Entonces, estas dos áreas tecnológicas pueden jugar bien juntas.

En cuanto a los avances, eso depende de lo que llames un avance. Nuevas aplicaciones de IA aparecen cada semana, si no día.

Espero que en 10 años todos los sistemas operativos de consumidores / negocios tengan algo de IA integrada. Industrial, probablemente algunos pero no del mismo tipo. SOs militares, supongo que ya en.

No tengo conocimiento de los sistemas operativos y el hardware, pero los documentos de xgboost sugieren que su aceleración sobre los algoritmos convencionales se debe en parte al aprovechamiento de las configuraciones de hardware.