Debido a que este será el tema de un panel en el Instituto de Verano NBER, ¿qué puede aprender la economía de Data Science y / o Machine Learning, y qué puntos sobre este tema le gustaría ver incluidos?

Dirigir algunos comentarios hacia un público profesional (economistas y científicos de datos) ayudaría a crear una atmósfera práctica.

Tengo tres ideas

Las innovaciones relativamente recientes en econometría, por ejemplo, pruebas de Diferencia en diferencia, se han centrado en extraer información de pequeños conjuntos de datos, a menudo compilados manualmente. Alternativamente, utilizando modelos razonablemente sofisticados en conjuntos de datos públicos de tamaño mediano (por ejemplo, PIB, inflación), revisados ​​por varios investigadores.

ML y ciencia de datos, manejan conjuntos de datos mucho más grandes y han desarrollado un conjunto diferente de herramientas, habilidades y mentalidad necesarias . Asi que:

  1. Un buen lugar para comenzar sería describir estas diferencias de mentalidad, bajo el tema de “cerrar la brecha”. Sería clave proporcionar algunos ejemplos de posibles errores culturales (p. Ej., La culpa de un aprendiz de máquina sobre mecanismos causales o preguntas de identificación).
  2. Después de eso, pase a las barreras técnicas en términos de habilidades. ¿Qué debe hacer un aspirante a Ph.D. ¿O un economista profesional que busca combinar ideas en ambos campos busca aprender sobre ciencia de datos? (¿Qué pasa con viceversa, para un científico de datos?) ¿Cuánto tiempo deben esperar antes de lograr una competencia razonable? ¿En qué preguntas de investigación y herramientas técnicas deberían enfocar sus esfuerzos? ¿Por qué?
  3. Porque es probable que muchos brechadores sean emprendedores Ph.D. candidatos, es posible que desee traer algunos doctorados económicos recientes que han hecho la transición a la ciencia de datos. Yo personalmente recomendaría a Michael Bailey.

Como anécdota, los economistas tienen algo que aprender cuando necesitan componentes precisos y puramente predictivos como parte de un estudio más amplio. Por ejemplo, al predecir sensibilidades de precios, donde se necesitan predicciones contrafácticas para encontrar efectos causales, las predicciones pueden aprovechar la precisión y la validación que ofrecen los modelos ML en comparación con los modelos lineales convencionales que se enseñan en Econometría. Con suficientes datos para la predicción, la validación cruzada es el estándar de oro para la precisión en ML, en lugar de las medidas estadísticas tradicionales utilizadas en pequeños conjuntos de datos. Sobre la cuestión general, hay una buena discusión desde el punto de vista de los economistas en el reciente artículo de Hartford sobre “Variables instrumentales profundas” en arXiv: 1612.09596v1.

Vale la pena hacer la otra pregunta “¿Qué puede aprender ML de la Econometría?” Si aún no es obvio. Los estudios de economía tienen un concepto sutil del papel de la causalidad cuando se estudian las variables en un modelo, algo en desacuerdo con la “causalidad de Pearl”, la versión más familiar para los informáticos. Eso es casi todo lo que he entendido; Me interesaría si alguien puede dilucidar esto.

Hay un viejo chiste: en Física, 3 puntos forman una línea recta. En química, 2 puntos forman una línea recta. En biología, 1 punto forma una línea recta. En economía, solo existe la línea

Los economofísicos han abordado este problema durante más de 10 años, con resultados modestos.

Aquí, debe mostrar algunos resultados nuevos que aún no han sido abordados por la comunidad de física.

Últimamente he estado trabajando en algunas ideas relacionadas con el aprendizaje automático y la economía.

http://charlesmartin14.wordpress.com/2013/08/01/causality-correlation-and-brownian-motion/

Aquí hay un enlace a un artículo de Hal Varian (noviembre de 2013) “Big Data: nuevos trucos para la econometría” en Berkeley … tal vez salió de ese taller.

He comenzado una serie de reuniones para abordar esta pregunta y lo contrario: ¿qué pueden aprender los científicos de datos de la economía? Economía y Big Data si tiene alguna sugerencia sobre los oradores, por favor envíeme un mensaje en el sitio de reunión.

No soy economista, pero tengo experiencia en aprendizaje automático (ML) y visión por computadora. El ML podría utilizarse para analizar las siguientes situaciones:

(a) Colapso de la economía local como resultado de la hambruna.
¿Se debió a menos precipitaciones o una baja tasa de crecimiento en el sector de caminos rurales?
# Podría analizarse con inferencia causal

(b) ¿Cuál es el impacto del aumento del estado de derecho en las economías desarrolladas sobre el lavado de dinero?
# Un RBF Kernel SVM podría usarse para construir una función que proporcione un
# medida cuantitativa que conecta digamos índice de corrupción de un desarrollado
# país a una cantidad sospechosa de lavado de dinero del mundo en desarrollo

More Interesting

¿Qué pasos de procesamiento previo recomendaría para un aprendizaje automático exitoso en un conjunto de datos MNIST?

¿Cuál es la razón para mapear datos de dos idiomas diferentes en un espacio de incrustación de palabras común y no usar dictonarios y asignarle el idioma b a los vectores del idioma a para entrenar un modelo de manera multilingüe?

Como ingeniero de ASIC, ¿cómo debo prepararme para la era del aprendizaje automático?

¿Cómo se compara Core ML con TensorFlow?

¿Cuáles son los requisitos previos para comenzar todo este aprendizaje automático, procesamiento del lenguaje natural, aprendizaje profundo, etc.?

¿Por qué el escalado es importante para la clasificación SVM lineal?

¿Dónde puedo encontrar cursos de aprendizaje automático y redes neuronales en la web?

¿Cuáles son los siguientes pasos en el reconocimiento de voz después de extraer las funciones de MFCC?

¿Será factible dentro de los próximos 5 años que una API de aprendizaje automático maneje la construcción de representaciones significativas a partir de datos sin procesar?

¿Cómo calcularía el ROI del uso de Big Data y el aprendizaje automático en los productos de la compañía?

¿Cómo se determinaría la relevancia de un artículo frente a algunas palabras clave?

¿En qué año se desplaza una creciente masa de empleos a través de la automatización en los Estados Unidos?

¿Qué criterios deberían ser apropiados para terminar el entrenamiento codicioso no supervisado de autoencoder por capas?

¿Cuál es el proceso de modelado?

La IA ha existido por décadas. ¿Qué condujo a toda la publicidad reciente de AI / Deep Learning?