¿Cómo impactará el aprendizaje automático en la economía?

La respuesta corta es que creo que tendrá un enorme impacto; en los primeros días, tal como se utiliza “fuera de la plataforma”, pero a largo plazo los economometristas modificarán los métodos y los adaptarán para que satisfagan las necesidades de los científicos sociales interesados ​​principalmente en realizar inferencias sobre los efectos causales y estimar el impacto de las políticas contrafácticas (es decir, cosas que aún no se han probado, o lo que habría sucedido si se hubiera utilizado una política diferente). Ejemplos de preguntas que los economistas a menudo estudian son cosas como los efectos de cambiar los precios, o introducir discriminación de precios, o cambiar el salario mínimo, o evaluar la efectividad de la publicidad. Queremos estimar lo que sucedería en caso de un cambio, o lo que habría sucedido si el cambio no hubiera tenido lugar.

Como evidencia del impacto, Guido Imbens y yo atrajimos a más de 250 profesores de economía a una sesión de NBER el sábado por la tarde el verano pasado, donde cubrimos el aprendizaje automático para economistas, y en todas partes donde presento este tema para economistas, atraigo a grandes multitudes. Creo que cosas similares son ciertas para el pequeño grupo de otros economistas que trabajan en esta área. Hubo cientos de personas en una sesión sobre big data en las reuniones de AEA hace unas semanas.

El aprendizaje automático es un término amplio; Lo voy a usar de manera bastante limitada aquí. Dentro del aprendizaje automático, hay dos ramas, el aprendizaje automático supervisado y no supervisado. El aprendizaje automático supervisado generalmente implica el uso de un conjunto de “características” o “covariables” (x) para predecir un resultado (y). Hay una variedad de métodos de ML, como LASSO (ver Victor Chernozhukov (MIT) y coautores que han llevado esto a la economía), bosque aleatorio, árboles de regresión, máquinas de vectores de soporte, etc. Una característica común de muchos métodos de ML es que usar validación cruzada para seleccionar la complejidad del modelo; es decir, estiman repetidamente un modelo en parte de los datos y luego lo prueban en otra parte, y encuentran el “término de penalización de complejidad” que mejor se ajusta a los datos en términos de error cuadrático medio de la predicción (la diferencia al cuadrado entre La predicción del modelo y el resultado real). En gran parte de la econometría transversal, la tradición ha sido que el investigador especifica un modelo y luego verifica la “robustez” observando 2 o 3 alternativas. Creo que la regularización y la selección sistemática de modelos se convertirán en una parte estándar de la práctica empírica en economía a medida que nos encontremos con más frecuencia conjuntos de datos con muchas covariables, y también a medida que veamos las ventajas de ser sistemáticos sobre la selección de modelos.

Sendhil Mullainathan (Harvard) y Jon Kleinberg con varios coautores han argumentado que hay una serie de problemas en los que los métodos estándar de LD para la predicción son la parte clave de importantes problemas de política y decisión. Utilizan ejemplos como decidir si realizar una operación de reemplazo de cadera para un paciente anciano; si puede predecir en función de sus características individuales que morirán dentro de un año, entonces no debe realizar la operación. Muchos estadounidenses están encarcelados mientras esperan juicio; Si puede predecir quién se presentará a la corte, puede dejar salir más bajo fianza. Los algoritmos de ML se utilizan actualmente para esta decisión en varias jurisdicciones. Goel, Rao y Shroff presentaron un documento en las reuniones de la AEA hace unas semanas utilizando métodos de LA para examinar las leyes de detención y registro. Vea también el interesante trabajo que utiliza los métodos de predicción de LD en la sesión que discutí sobre “Ciudades Predictivas”: Programa preliminar de ASSA 2016 donde vemos el LD utilizado en el sector público.

A pesar de estos ejemplos fascinantes, en general, los modelos de predicción de ML se basan en una premisa que está fundamentalmente en desacuerdo con una gran cantidad de trabajo de ciencias sociales sobre inferencia causal. La base de los métodos de ML supervisados ​​es que la selección del modelo (validación cruzada) se lleva a cabo para optimizar la bondad de ajuste en una muestra de prueba. Un modelo es bueno si y solo si predice bien. Sin embargo, una piedra angular de la econometría introductoria es que la predicción no es inferencia causal, y de hecho un ejemplo económico clásico es que en muchos conjuntos de datos económicos, el precio y la cantidad están positivamente correlacionados. Las empresas fijan precios más altos en las ciudades de altos ingresos donde los consumidores compran más; aumentan los precios en previsión de los momentos de mayor demanda. Un gran cuerpo de investigación econométrica busca REDUCIR la bondad de ajuste de un modelo para estimar el efecto causal de, digamos, el cambio de precios. Si los precios y las cantidades se correlacionan positivamente en los datos, cualquier modelo que calcule el verdadero efecto causal (la cantidad disminuye si cambia el precio) no funcionará tan bien con los datos. El lugar donde el modelo econométrico con una estimación causal funcionaría mejor es ajustar lo que sucede si la empresa realmente cambia los precios en un punto dado en el tiempo, al hacer predicciones contrafácticas cuando el mundo cambia. Las técnicas como las variables instrumentales buscan usar solo parte de la información que está en los datos, la variación “limpia” o “exógena” o “similar a un experimento” en el precio, sacrificando la precisión predictiva en el entorno actual para aprender sobre una relación más fundamental eso ayudará a tomar decisiones sobre el cambio de precio. Este tipo de modelo no ha recibido casi ninguna atención en ML.

En algunas de mis investigaciones, estoy explorando la idea de que podría tomar las fortalezas e innovaciones de los métodos de ML, pero aplicarlos a la inferencia causal. Requiere cambiar la función objetivo, ya que la verdad fundamental del parámetro causal no se observa en ningún conjunto de pruebas. La teoría estadística juega un papel más importante, ya que necesitamos un modelo de la cosa no observada que queremos estimar (el efecto causal) para definir el objetivo para el que los algoritmos optimizan. También estoy trabajando en el desarrollo de la teoría estadística para algunos de los estimadores más utilizados y exitosos, como los bosques aleatorios, y adaptándolos para que puedan usarse para predecir los efectos del tratamiento de un individuo en función de sus características. Por ejemplo, puedo decirle a un individuo en particular, dadas sus características, cómo responderían a un cambio de precio, utilizando un método adaptado de árboles de regresión o bosques aleatorios. Esto vendrá con un intervalo de confianza también. Puede buscar mis documentos en el archivo de impresión electrónica de arXiv.org; También escribí un artículo sobre el uso de métodos de LA para evaluar sistemáticamente la solidez de las estimaciones causales en el American Economic Review el año pasado. Espero que algunos de estos métodos puedan aplicarse en la práctica para evaluar ensayos controlados aleatorios, pruebas A / B en empresas tecnológicas, etc., para descubrir efectos de tratamiento sistemáticamente heterogéneos.

Las herramientas de aprendizaje automático no supervisadas difieren de las supervisadas en que no hay una variable de resultado (no “y”): estas herramientas se pueden utilizar para encontrar grupos de objetos similares. He utilizado estas herramientas en mi propia investigación para encontrar grupos de artículos de noticias sobre un tema similar. Se usan comúnmente para agrupar imágenes o videos; Si dice que un informático descubrió gatos en YouTube, puede significar que usaron un método de ML no supervisado para encontrar un conjunto de videos similares, y cuando los ve, un humano puede ver que todos los videos en el grupo 1572 son sobre gatos, mientras que todos los videos en el grupo 423 son sobre perros. Considero que estas herramientas son muy útiles como un paso intermedio en el trabajo empírico, como una forma basada en datos para encontrar artículos, reseñas, productos, historiales de usuarios similares, etc.

El aprendizaje automático cambiará cada vez más la forma en que se realiza la economía. Algunos investigadores están aprendiendo a usar conjuntos de datos masivos para encontrar relaciones en el mundo que antes no habrían sospechado que estuvieran allí. Eso debería ayudar a los economistas a hacer mejores preguntas, y también podría aumentar la productividad de la investigación, al permitir que los investigadores ocupados prueben más hipótesis más rápidamente.

Sin embargo, el aprendizaje automático podría tener un mayor efecto en las economías que los economistas están estudiando. El progreso realmente rápido en la tecnología afectará el ritmo de crecimiento y la distribución del crecimiento. La revolución industrial generó una revolución en el pensamiento económico. Una revolución digital altamente disruptiva basada en la inteligencia artificial podría hacer lo mismo.

El ejemplo bastante bueno de este impacto es Numerai , que permite a cualquier científico de datos construir modelos de aprendizaje automático sobre sus datos y enviar predicciones para controlar el capital en su Hedge Fund.

Numerai extrae sus datos financieros, los científicos de datos no saben qué representan los datos y se superan los prejuicios humanos y el sobreajuste. También tienen una forma única de proporcionar beneficios con su propia moneda criptográfica.

Independientemente del conjunto de datos de Numerai que descargue, los siguientes pasos serán casi los mismos para un científico de datos con algunas modificaciones: Guía paso a paso para controlar las versiones de sus tareas de Aprendizaje automático y Aprendizaje profundo —Numerai Ejemplo— también contiene un buen ejemplo de cambio de tamaño dicho enfoque al simplificar el trabajo de ciencia de datos en un entorno único y reproducible, fácil de compartir código por Git, incluidas las dependencias (DAG) y los archivos de datos a través de servicios de almacenamiento en la nube como AWS S3 o GCP Storage, que brinda la capacidad de reproducir los resultados de la investigación en diferentes ordenadores.

El aprendizaje automático está impactando la economía en este momento. Una gran cantidad de datos fácilmente accesibles y de alta calidad ha facilitado el uso de paquetes de aprendizaje para R y Python (consulte el flujo de tensor de Google) para extraer inferencias estadísticas y formular hipótesis.

Los economistas generalmente están más interesados ​​en las ramificaciones de ciertas políticas existentes o las propuestas por nuestros funcionarios gubernamentales, en lugar de construir un modelo con el único propósito de predecir un precio o una cantidad como los utilizados en las estrategias comerciales cuantitativas. Esto presenta un problema debido al hecho de que una gran cantidad de factores pueden desempeñar un papel en el valor numérico de una métrica o el precio de un activo o índice, especialmente a nivel macro. Las máquinas de vectores de soporte, los árboles de decisión y los métodos de Markov Chain Monte Carlo en redes bayesianas son algunos ejemplos de cómo podemos usar el aprendizaje automático para clasificar las relaciones entre conjuntos de datos e identificar posibles causas.

Las ineficiencias disminuirán.

Esto se debe al progreso de la tecnología, ya que las redes actuales de aprendizaje profundo ya están realizando tareas que se pensaban que faltaban años.

Pero aún más interesante es que la tecnología se implementará a través de algunos canales específicos. No es de extrañar que las aplicaciones de mensajería estén ganando popularidad y el futuro de los negocios son las aplicaciones dentro de las aplicaciones.

Tienes cientos de millones de personas que acceden a Internet a través de solo un par de canales (Messenger, WeChat, WhatsApp). La aplicación de tecnologías de aprendizaje automático en esos canales ofrecerá eficiencias a escalas que antes eran inalcanzables. Las interfaces probablemente serán bots y servicios similares controlados por voz que harán que la economía sea mucho más eficiente.

El aprendizaje automático cambiará cada vez más la forma en que se realiza la economía. Algunos investigadores están aprendiendo a usar conjuntos de datos masivos para encontrar relaciones en el mundo que antes no habrían sospechado que estuvieran allí. Eso debería ayudar a los economistas a hacer mejores preguntas, y también podría aumentar la productividad de la investigación, al permitir que los investigadores ocupados prueben más hipótesis más rápidamente.

Sin embargo, el aprendizaje automático podría tener un mayor efecto en las economías que los economistas están estudiando. El progreso realmente rápido en la tecnología afectará el ritmo de crecimiento y la distribución del crecimiento. La revolución industrial generó una revolución en el pensamiento económico. Una revolución digital altamente disruptiva basada en la inteligencia artificial podría hacer lo mismo

El aprendizaje automático podría conducir a un hipercrecimiento económico, sugiere una nueva investigación: “Si el aprendizaje automático realmente puede hacerse cargo de todas las tareas humanas y asumir ideas de innovación, entonces sería posible obtener un cambio radical en la tasa de crecimiento”

La tecnología que impulsará este cambio (aprendizaje automático) se volvió práctica por primera vez hace solo unos años. Recién estamos comenzando a ver los primeros productos comerciales que usan esto de manera significativa, pero todavía está en su infancia absoluta. Esto no solo será una continuación lenta y acelerada de las tendencias pasadas, sino un colapso repentino del sistema básico de dinero para el trabajo humano. Casi todas las tareas que los humanos realizan en la economía ahora son un objetivo para la automatización, mientras que antes solo ciertas tareas muy repetitivas y predecibles eran tales objetivos.