¿Por qué la teoría de la medida es más común en economía que en informática?

Realmente depende del tema de la investigación. Un científico informático que trabaja en el área de aprendizaje automático estadístico y un economista que trabaja en el área de econometría probablemente estén familiarizados con la teoría de la medida. Pero en general, parece razonable suponer que es más probable que encuentre un economista que esté expuesto a la teoría de la medición que un científico de la computación.

Creo que esta diferencia a menudo se deriva de la divergencia en la formación matemática tradicional que se recibe en los dos campos, y de cuestiones de practicidad .

El plan de estudios de informática tiene un mayor énfasis en las matemáticas discretas. Los problemas fundamentales de la informática a menudo se plantean en objetos discretos. Por ejemplo, en el subtema de algoritmos , es más probable que encuentre problemas discretos primero (búsqueda, clasificación, recorrido de gráficos, programación, etc.) en lugar de problemas continuos como la optimización no lineal. Los cálculos en sí deben realizarse en una computadora digital, donde la noción de tiempo y memoria son discretas. Dadas las limitaciones de tiempo, tiene sentido poner más énfasis en las matemáticas discretas que en las continuas. En contraste, el plan de estudios de economía tiene un énfasis ligeramente más en el análisis. Es más común ver a los estudiantes de economía tomar un curso en análisis real que en matemáticas discretas. El análisis en sí mismo, debido a su énfasis en el rigor, conduce a una transición más natural al estudio de la teoría de la medida.

Un enfoque teórico de medidas es necesario para una comprensión completa de la teoría de probabilidad. Para poder leer trabajos de investigación avanzados, uno tiene que entender lo que significa asignar probabilidades a conjuntos medibles, cómo manejar variables aleatorias mixtas, etc. Pero, desde una perspectiva práctica, no está muy claro si el rigor agregado de La teoría de la medición conduce a mejoras claras en la capacidad de resolución de problemas. Según mi experiencia, los informáticos valoran mucho la resolución de problemas y, dada una compensación entre rigor y practicidad, tienden a ponerse del lado de la practicidad.

Creo que la gran razón es que las probabilidades en informática son principalmente sobre conjuntos discretos. En este caso, medir los fundamentos teóricos de la probabilidad es, en su mayoría, excesivo. Todavía puede tratar los conjuntos discretos como conjuntos / medidas de Borel, pero no necesita toda la fuerza.

Dicho esto, hay algunos casos en los que los informáticos usan los fundamentos más rigurosos. El curso de CS donde realmente lo necesitaba fue:

https://www.cs.princeton.edu/cou