Depende de qué área de investigación de ML realice. Si no está probando las cosas como una parte importante de su trabajo, la respuesta es que, en la mayoría de los casos, no, fuera de nichos específicos donde sería útil entender como los no paramétricos bayesianos. Si está probando cosas, realmente estará limitado si no ha estudiado una cierta cantidad de teoría de la medida, y en estos días cosas como la teoría del aprendizaje profundo parecen tomar prestadas en gran medida de varias áreas de análisis.
Incluso si no está probando cosas, a veces los documentos más teóricos, que requieren que comprenda un poco de análisis, pueden ser útiles para obtener ideas. Además, hay dos lugares muy básicos donde la teoría de la medida es muy útil: extraer un límite (incluida una derivada) dentro de una integral e intercambio de integrales. La teoría de la medida le brinda (en mi opinión) herramientas mucho más intuitivas para tratar con ellas que la integración de Riemann. Entonces, por ejemplo, si desea saber si la derivada de una expectativa es igual a la expectativa de la derivada, el método teórico de medida para encontrar una función dominante a menudo es más fácil que mostrar una convergencia uniforme.
- ¿Puedo usar word2vec para hacer el análisis de co-palabras?
- ¿Cuáles son los criterios principales para la inicialización de los pesos en el aprendizaje profundo? Si quiero diseñar un algoritmo para la inicialización del peso, ¿qué factores debo tener en cuenta?
- ¿Cuáles son algunos temas inusuales en el aprendizaje automático que se pueden explorar como un proyecto de un mes?
- ¿Qué componentes de hardware (CPU, RAM, GC, etc.) se necesitan para que una PC / computadora doméstica de aprendizaje automático / aprendizaje profundo funcione rápidamente?
- ¿Cuáles son los pensamientos de Yoshua Bengio sobre los modelos gráficos probabilísticos?